본문 바로가기
컴퓨터 기술 및 유지보수/ChatGPT

챗GPT-4가 멍청해졌다? GPT-4의 지능 저하 문제 제기

by typenine9 2023. 7. 18.
300x250

챗GPT-4 지능 저하 문제 제기

챗GPT4 지능 저하 문제 제기

챗GPT-4가 멍청해졌다?

 

 

'GPT-4'의 지능 저하 문제가 제기되고 있습니다. 이 문제의 원인으로 OpenAI의 '모델 분할' 작업이 지목되었습니다. 그러나 OpenAI는 "더 똑똑해졌다"고 반박하였습니다.

 

현지시간인 13일에 비즈니스 인사이더가 보도한 바에 따르면, 최근 일부 전문가와 사용자들은 "GPT-4의 성능이 하락했다"고 지적하였고, OpenAI는 "성능이 감소한 것이 아니라 증가했다"고 대응했습니다. 이에 따르면, OpenAI의 온라인 개발자 포럼과 트위터에 올라온 게시물들은 GPT-4의 논리 약화, 오류율 증가, 입력 정보 이해 불능, 가장 최근의 입력만을 제외하고는 모든 것을 잊어버리는 현상 등을 지적하였습니다. 또한, GPT-4가 "게으르다" 또는 "멍청해졌다"는 비판이 계속되고 있습니다.

 

 

Roblox의 제품 매니저인 Peter Yang은 "텍스트가 빠르게 출력되지만 내용은 더 나빠졌다"고 지적하였고, 개발자인 Christy Kennedy는 "계속 같은 내용을 다시 코딩한다"고 말했습니다. 한 개발자는 "페라리를 타고 낡은 픽업 트럭을 운전하는 것 같은 느낌이다"라고 했습니다. 지난 3월 출시된 GPT-4는 상대적으로 출력이 느리지만 탁월한 정확성으로 평가받았습니다. 그러나 최근 몇 주간 속도가 눈에 띄게 증가한 후, 품질 저하에 대한 불만이 이어졌습니다.

 

이에 관계자들은 'Mixture of Experts (MOE)'라는 방법 때문이라고 주장했습니다. OpenAI의 CEO인 Sharon Zhou Ramiri는 OpenAI가 GPT-4를 여러 개의 작은 모델로 나누고 상황에 따라 조합하는 방식으로 작동한다고 지적하였습니다. Allen AI Labs의 CEO인 Oren Ezioni도 같은 의견을 표명했습니다.

 

다시 말해, GPT-4는 생물학, 물리학, 수학 등 각 분야를 담당하는 작은 전문가 모델로 분할되고, 질문에 따라 전문가 모델들이 연결되거나 여러 유형이 혼합됩니다. 이 경우, 전체 큰 모델을 실행하는 것보다 비용과 시간이 훨씬 절약됩니다.

 

챗GPT 로고

 

OpenAI의 회장인 Greg Brockman은 2022년 논문을 통해 MOE 접근법의 장점을 설명했습니다. Zhou는 "일부 사람들은 이전과 별 차이가 없다고 느낄 수도 있지만, 실제로는 같은 모델"이라고 말했습니다. "MOE 모델은 시간이 지남에 따라 개선될 것입니다."

 

OpenAI도 입장을 밝혔습니다. VentureBeat에 따르면, 제품 부사장인 Peter Welinder는 트위터에서 "나는 GPT-4를 멍청하게 만들지 않았을 뿐만 아니라, 각 버전은 이전 버전보다 똑똑해졌다"고 주장했습니다.

다시 말해, 그는 MOE를 인정하였으며, "제품을 더 많이 사용함에 따라 원래 보이지 않던 문제들이 나타나는 것"이라고 지적했습니다.

 

일부 사용자들은 동의하지만, 여전히 GPT-4가 멍청해진 것이라 주장하는 사람들도 있습니다. 무엇보다도, OpenAI는 GPT-4 출시 당시 기술 보고서를 공개하지 않았기 때문에 외부에서 모델이 변화했는지 확인할 증거가 없다는 점에 대해 반복적으로 비판받고 있습니다.

 

MOE의 장점

 

GPT-4의 MOE 접근법은 다음과 같은 장점을 가지고 있습니다.

 

가. 비용과 시간 절약

GPT-4는 여러 작은 전문가 모델로 나누어져 각 분야에 특화된 기능을 수행합니다. 이렇게 작은 모델들을 필요에 따라 조합함으로써 전체 모델을 실행하는 것보다 훨씬 비용과 시간을 절약할 수 있습니다. 예를 들어, 수학적인 질문에는 수학 전문가 모델을, 생물학적인 질문에는 생물학 전문가 모델을 사용하는 식으로 분야별로 최적화된 응답을 얻을 수 있습니다.

 

나. 확장성과 유연성

MOE 접근법은 모델의 확장성과 유연성을 향상시킵니다. 새로운 전문 분야에 대한 전문가 모델을 추가하는 것은 상대적으로 간단하며, 이는 모델의 업그레이드와 개선을 용이하게 합니다. 이로 인해 GPT-4는 시간이 지남에 따라 더 나은 성능을 발휘할 수 있을 것으로 기대됩니다.

 

반응형

 

MOE의 우려점

 

하지만 MOE 방식은 몇 가지 우려점도 동반합니다.

 

가. 품질 저하

일부 사용자들은 GPT-4의 텍스트 품질이 저하되었다고 지적하고 있습니다. MOE 모델은 다양한 작은 모델을 조합하기 때문에 전체 모델의 일관성과 논리적인 흐름을 유지하기 어려울 수 있습니다. 따라서 특정 상황에서 GPT-4가 "멍청해진다"는 비판이 제기되고 있습니다.

 

나. 폐쇄성과 검증의 어려움

OpenAI가 GPT-4의 변경 사항을 외부에 공개하지 않은 점에 대한 비판도 제기되고 있습니다. MOE 모델을 사용함으로써 전체 모델이 어떻게 변화했는지 확인하기 어려워졌기 때문입니다. 일부 사용자들은 이에 대한 검증을 요구하고 있으며, OpenAI는 보다 투명한 정보 공개에 대한 요구에 대응해야 할 것입니다.

 

맺음말

 

GPT-4의 모델 분할 방식인 MOE는 비용과 시간 절약, 확장성과 유연성 등 여러 가지 장점을 가지고 있습니다. 그러나 일부 사용자들은 품질 저하와 검증의 어려움을 우려하고 있습니다. OpenAI는 이러한 우려에 대한 대응과 함께 모델의 품질 향상을 위한 노력을 계속해야 합니다.

 

앞으로는 OpenAI가 MOE 방식을 개선하고, 모델의 성능과 일관성을 향상시키는 방향으로 발전할 것으로 기대됩니다. 또한 OpenAI의 투명성과 검증 가능성을 높이는 노력도 함께 이루어져야 합니다. 이를 통해 인공지능 모델은 더욱 발전하며, 우리의 일상과 비즈니스에 더 큰 혜택을 제공할 것으로 기대합니다.

 

https://typenine9.tistory.com/245

 

챗GPT 사용법 (블로그 글 1분만에 작성하는 방법, 프롬프트 제공)

챗GPT 사용법 (블로그 글 1분만에 작성하는 방법) 챗GPT는 어떤 질문을 하느냐에 따라 천차만별의 결과를 보여줍니다. 그 말은 질문을 잘 던져주면 그에 맞는 답이 온다는 뜻입니다. 이번 글에는

typenine9.tistory.com

https://typenine9.tistory.com/246

 

챗GPT 사용법 (영어학습을 돕는 챗GPT 활용 방법 3가지)

챗GPT 사용법 (영어학습을 돕는 챗GPT 활용 방법 3가지) 챗GPT, 영어학습에도 적용할 수 있습니다. 이 글은 '챗GPT를 활용하여 영어 학습을 돕는 방법'에 대한 내용입니다. 먼저, 챗GPT는 OpenAI에서 개

typenine9.tistory.com

https://typenine9.tistory.com/244

 

챗GPT 사용법 (효과적으로 활용하는 질문 3가지 유형 소개)

챗GPT 사용법 (효과적으로 활용하는 질문법 3가지 소개) 챗GPT를 다방면으로 활용할 수 있다는 건 이제 누구나 아는 사실이 되었습니다. 그렇다면 어떻게하면 잘 활용하는 것일까요? 이번 글에서

typenine9.tistory.com

 

<