챗지피티와 거대언어모델의 부정확한 답변, ‘헛소리’로 명명해야 하는 이유
많은 사람들이 인공지능의 부정확한 답변에 실망하고 있습니다.
이러한 문제를 해결하기 위해 거대언어모델의 특성을 올바르게 이해하고 대처하는 방법을 제시하겠습니다.
이번 글에서는 거대언어모델의 부정확한 답변을 ‘헛소리’로 재정의하고, 이를 통해 기술 발전과 사용자 보호를 위한 방법을 논의하겠습니다.
챗지피티의 부정확한 답변, ‘환각’이 아닌 ‘헛소리’로 재정의
챗지피티와 같은 거대언어모델이 생성하는 부정확한 답변을 ‘환각’으로 부르는 것은 기술 옹호자들이 그 능력을 과대평가하게 만드는 일입니다.
대신 이를 ‘헛소리’로 부르는 것이 더 정확하다는 주장이 영국 글래스고우대학 연구진들에 의해 제기되었습니다.
‘환각’이 아닌 ‘헛소리’로 부르는 이유
연구진들은 챗지피티 등의 생성형 인공지능이 ‘사람처럼’ 말이나 글을 생성하는 것을 목표로 할 뿐, 진실에 대해 무관심하고 누군가를 속이려는 의도조차 없다는 면에서 ‘헛소리’의 특징과 일치한다고 보았습니다. 미국 철학자 해리 프랭크퍼트가 저서 ‘On Bullshit’에서 정의한 헛소리의 특징은 다음과 같습니다.
- 자신이 하는 말이 참인지 거짓인지에 대해 무관심함
- 속이려는 의도가 없으며 청자에게 특정한 인상만을 주고자 함
- 진실 자체에 무관심하다 보니 헛소리가 거짓말보다 더 위험할 수 있음
- 광고, 정치 연설, 일부 학문 분야 등 현대 사회의 많은 영역에서 헛소리가 만연함
챗지피티가 생성하는 답변들이 이러한 특징과 부합하기 때문에, 이를 ‘헛소리’로 정의하는 것이 더 적절하다는 것입니다.
거대언어모델의 ‘헛소리’ 문제
챗지피티는 ‘세종대왕이 맥북 던진 사건’을 이야기해달라는 질문에도 마치 실제 있었던 일인 것처럼 뻔뻔하게 설명을 늘어놓는 등 터무니없는 답변으로 세상을 놀라게 했습니다.
인물에 대한 설명이나 출처조차도 거짓인 경우가 많았습니다. 인공지능 업계에서는 이러한 현상을 ‘환각’이라 부르며 극복해야 할 문제로 여겨왔습니다.
그러나 연구진들은 이를 ‘헛소리’로 부르며 해결해야 할 문제인 것처럼 다루는 것이 제대로 된 과학적 소통을 막는다고 봤습니다.
‘헛소리’ 문제는 해결책을 제시해도 효과가 없을 수 있으며, 전문가들의 잘못된 노력이 이어질 수 있다는 것입니다.
따라서 ‘환각’이 아닌 ‘헛소리’로 정확하게 불러야 과학·기술 분야에서 유용한 소통이 가능하다는 설명입니다.
필자의 생각
챗지피티와 같은 거대언어모델의 부정확한 답변을 ‘헛소리’로 정의하는 것은 매우 타당한 접근입니다.
이를 통해 인공지능 기술의 한계를 명확히 인식하고, 신뢰성 높은 기술 발전을 이루기 위한 방향성을 제시할 수 있습니다.
또한, 사용자가 인공지능의 답변을 신중하게 받아들이고 이를 맹신하지 않도록 하는 데 도움이 될 것입니다.
끝으로
챗지피티와 같은 거대언어모델이 생성하는 부정확한 답변을 ‘환각’이 아닌 ‘헛소리’로 정의하는 것은 인공지능 기술의 발전과 사용자 보호를 위한 중요한 접근입니다.
이를 통해 기술의 한계를 명확히 인식하고, 신뢰성 높은 인공지능 기술을 개발할 수 있는 방향성을 제시할 수 있습니다.
또한, 사용자가 인공지능의 답변을 신중하게 받아들여 신뢰성 높은 정보를 제공받을 수 있도록 돕는 데 기여할 것입니다.
▼ 함께 보면 좋은 글 ▼
ChatGPT 4o으로 천둥 소리 MP3 파일 만들기, 놀라운 AI의 새로운 가능성
생성형 AI의 노트북 혁명, 이제는 PC에서도 가능하다
AI의 위험성, 오픈AI와 구글 직원들이 경고하는 인류의 미래