챗GPT 최신 버전 공개…이미지 인식하고 한국어 성능 향상

김덕준 기자 casiopea@busan.com
부산닷컴 기사퍼가기

최근 세계적으로 인기를 끌고 있는 챗GPT 개발사인 오픈AI가 현재 챗GPT에 적용된 GPT-3.5의 업그레이드 버전인 GPT-4를 출시했다. 사진은 ChatGPT 로고. 연합뉴스 최근 세계적으로 인기를 끌고 있는 챗GPT 개발사인 오픈AI가 현재 챗GPT에 적용된 GPT-3.5의 업그레이드 버전인 GPT-4를 출시했다. 사진은 ChatGPT 로고. 연합뉴스

최근 전세계적으로 돌풍을 불러오고 있는 챗GPT 개발사인 오픈AI가 GPT-3.5의 업그레이드 버전인 GPT-4를 출시했다. 과연 그 성능은 얼마나 향상됐을까. 가장 주목되는 것은 이미지나 그래프를 인식해 답변할 수 있다는 점이다.

16일 정보기술(IT) 업계에 따르면 오픈AI는 지난해 11월 챗GPT를 내놓은 지 약 4개월 만인 14일(현지시간)에 대규모 AI 언어 모델(LLM) GPT-4를 공개했다.

GPT-3의 매개 변수(파라미터) 규모인 1750억개를 크게 넘은 1조개 이상의 매개 변수를 갖출 것이라는 추정이 있었지만 오픈AI는 이를 공개하진 않았다.

다만 업계에서는 확실히 향상된 모델이라고 평가했다. 이미지를 보고 이해할 수 있게 됐고, 언어 구사 능력과 기억력이 높아진 것은 물론 영어 이외의 외국어 실력도 전반적으로 향상됐다는 점에서다.

GPT-4는 텍스트뿐만 아니라 이미지를 포함한 여러 데이터 형태를 인식한다. 즉 문자로만 대화할 수 있었으나 앞으로는 사진과 문자를 결합한 질문에도 답변할 수 있게 발전했다. 예를 들어 계란과 밀가루, 버터, 우유 사진을 올리고 “이것으로 무슨 요리를 할 수 있나”라고 물으면 “팬케이크나 와플, 프렌치토스트 등”이라고 답할 수 있다.

언어 능력도 향상됐다. GPT-4는 미국 모의 변호사 시험에서 90번째, 대학 입학 자격시험인 SAT 읽기·수학 시험에서는 각각 93번째와 89번째의 백분위수를 기록했는데 이는 상위 10% 수준이라고 오픈AI는 설명했다.

오픈AI는 “평소 대화에서는 GPT-3.5와 차이가 크게 나지 않을 수 있지만 GPT-4는 훨씬 더 신뢰할 수 있고 창의적이며 더 미묘한 명령을 처리할 수 있다”고 설명했다.

특히 GPT-3.5의 고질적 문제였던 ‘할루시네이션(환각) 현상’도 크게 줄었다고 오픈 AI는 설명했다. 이는 AI가 틀린 정보나 무의미한 내용을 마치 환각을 보는 듯이 그럴듯하게 제시하는 현상을 말한다.

한국어를 비롯한 비영어 언어 성능이 높아졌다는 설명이다. 오픈AI가 시험한 26개 언어 가운데 GPT-4는 한국어와 일본어, 프랑스어 등 24개 언어에서 GPT-3.5가 영어를 하는 수준보다 더 높은 성능을 보였다. 다만 이는 앞으로 검증해봐야 할 문제다.

GPT-4가 혁신적인 변화이기는 하지만, 아직 인간과 동일한 수준의 능력을 갖춘 것은 아니라 아직 엉뚱한 답을 내놓을 수 있다는 한계도 지적된다.

AI 스타트업 업스테이지의 박은정 최고과학책임자(CSO)는 “GPT-4는 사람들이 많이 물어보지 않거나 온라인에 정보가 없는 롱테일 질문이나 특정 연산을 통해 정보를 소화해야 하는 추론형 질문은 잘 답할 수 없다”고 말했다.


김덕준 기자 casiopea@busan.com

당신을 위한 AI 추천 기사