챗GPT로 폭발적인 관심을 받고 있는 오픈AI(OpenAI)가 최근 채팅 봇 챗GPT를 지원하는 대규모 언어 모델의 최신 버전 ‘GPT-4’를 공개했다. 오픈AI는 GPT-4가 종전 버전에 비해 대폭 개선됐다고 밝힌다.
챗GPT는 프롬프트에서 사람과 같이 텍스트를 만들고 이미지와 컴퓨터 코드를 생성하는 기능으로 사용자들을 경악하게 하고 있다. 하지만 과학자들의 평가는 다르다. 오히려 GPT-4의 폐쇄적 학습을 경계하고 있다.
과학계, GPT-4 잠재력보다는 기술안전성 우려 제기
네이처가 온라인 홈페이지에 과학자들의 다양한 반응을 옮겼다. 보도에 따르면 일부에서는 GPT-4가 과학을 변화시킬 잠재력이 있다고 말하지만, 다수의 과학자들은 “GPT가 여전히 기술, 기본 코드 또는 훈련 방법에 대한 정보에 접근할 수 없다는 것이 가장 큰 문제”라고 지적했다.
기술 안전성에 대한 우려를 불러일으키고 있다는 점에서 연구 유용성을 떨어뜨린다는 지적이다.
GPT-4의 한 가지 업그레이드는 텍스트뿐 아니라 이미지도 처리할 수 있다는 점이다. 언어 능력에서 입증됐듯이 오픈AI는 최신 버전의 챗GPT가 이전 버전보다 미국 변호사 시험을 월등히 우수하게 통과했다고 밝혔다. 그러나 이 기술은 유료 가입자만 사용할 수 있다. 상용화에는 한계가 있다.
암스테르담 대학교 심리학자 에비-앤 반 디스는 “GPT-4 데모 동영상을 본 결과는 놀라웠다”며 한 가지 사례를 들었다. GPT-4가 웹사이트를 구축하기 위해 컴퓨터 코드를 손으로 적은 낙서 이미지를 처리하는 능력이었다.
과학계, 오픈소스의 폐쇄적 학습 방식에 경계감 드러내
그러나 과학계는 이 모델이 어떻게, 어떤 데이터로 훈련되고, 실제로 어떻게 작동하는지에 대해 오픈AI가 비밀에 부치는 것에 대해 강한 경계감 내지 불만을 표출했다.
오픈 소스 AI 커뮤니티인 허깅페이스(HuggingFace)의 기후 전문 연구 과학자 사샤 루치오니는 "이 모든 폐쇄 소스 모델은 본질적으로 과학의 막다른 골목"이라고 비판했다. "오픈AI는 자신들의 연구를 계속 발전시킬 수 있겠지만, 출처를 알 수 없다는 점에서 과학계에서는 이용할 수 없는 문제점들이 많다"고 직격했다.
로체스터 대학교의 화학 엔지니어인 앤드류 화이트는 GPT-4에 접근할 수 있는 ‘레드팀’ 권한을 받았다. 레드팀은 플랫폼을 테스트해 나쁜 일을 하도록 만들기 위해 오픈AI에서 비용을 지불하고 선정한 사람들. 그는 지난 6개월간 GPT-4에 접근할 수 있었다.
화합물을 만들고, 반응 수율을 예측하고, 촉매를 선택하는 데 필요한 화학 반응 단계가 무엇인지 챗봇에 묻는 방식으로 그는 테스트했다. 그는 “이 모델만으로는 그다지 훌륭하지 않을 수 있다는 사실을 깨달았다. GPT-4의 능력에 우려가 따른다는 것이다. 예를 들어 GPT-4는 위험한 화학 물질을 만들 수 있을까. 오픈AI 엔지니어는 GPT-4가 위험하거나 불법적이거나 피해를 주는 콘텐츠를 만들지 못하도록 모델에 피드백을 제공했다.
오픈AI의 '잘못된 정보 출력' 누가 책임질 것인가
잘못된 정보를 출력하는 것도 과학자들이 우려하는 문제점이다. 문헌 출처를 밝히는 것도 실제 검색해 보면 다른 경우가 다수 나타난다. 오픈AI는 GPT-4에서 안전성이 향상되었다고 말하지만 여전히 우려되는 사항이다.
가짜 사실을 교정하지 못하면 과학계에서는 치명적이다. 안전에 대한 오픈AI의 보증도 부족하다. 데이터가 무엇인지 모르고 GPT-4 모델로 과학을 수행하는 것은 불가능하다는 것이 루치오니의 주장이다.
GPT-4가 어떻게 훈련되었는지에 대한 미스터리는 암스테르담에 있는 반 디스의 동료 심리학자 클라우디 버크팅의 관심사이기도 했다. 그녀는 "감독할 수 없는 것에 대해 책임을 지는 것은 인간으로서 매우 어렵다"며 "가장 큰 우려는 인간이 가지고 있는 편견보다 훨씬 더 편향될 수 있다는 것"이라고 설명했다.
버크팅과 반 디스는 또한 이러한 AI 시스템이 거대 기술 회사의 소유가 되는 것에 대해서도 우려했다. 그들은 기술이 과학자들에 의해 적절하게 테스트되고 검증되었는지 확인해야 할 것이라고 주장했다. 이들은 "대형 기술과의 협업은 프로세스 속도를 높일 수 있기 때문에 기회이기도 하다"면서 과학계와의 협업도 제안했다.
"AI·GPT-4 개발 및 통제 지침 마련해야"
이들은 AI와 GPT-4와 같은 도구가 어떻게 사용되고 개발되는지를 통제하기 위한 일련의 지침을 개발하는 것이 시급하다고 주장했다. AI 기술을 둘러싼 어떤 입법도 현실의 발전 속도를 따라잡기 어려울 것이라는 우려다.
보킹과 반 디스는 오는 4월 11일 암스테르담 대학교에서 유네스코 과학윤리위원회, 경제협력개발기구, 세계경제포럼 등의 단체 대표들과 함께 관련 논의를 진행한다.
일정 정도의 영향은 불가피하다. 일부 과제에는 도움이 될 수 있다. 과학자들이 사용하는 논문, 데이터 프로그램, 라이브러리, 컴퓨터 작업 또는 로봇 실험 등에 활용할 수 있는 길은 열릴 것으로 보인다.

댓글 (0)
댓글 작성
댓글을 작성하려면 로그인이 필요합니다.
로그인하기