*인공지능 상징 이미지. 사진=픽사베이
 *인공지능 상징 이미지. 사진=픽사베이

인공지능(AI)에 대한 일반적인 해설은 ‘인간의 지능을 필요로 하는 작업을 수행할 수 있는 기계의 개발 및 사용을 특징으로 하는 연구 및 기술 유형’의 틀에서 크게 벗어나지 않는다.

인공지능은 이미 고객 서비스 챗봇의 도입부터 향상된 GPS 및 지도 애플리케이션에 이르기까지 다방면으로 산업과 사회를 변화시켰다. 그러나 AI와 AI의 잠재적인 사용에 대해서는 몇 가지 오해가 있다. 특히 요즘 오픈AI의 제너레이티브 AI인 챗GPT가 선풍적인 인기를 끌고 있는 가운데, AI에 대한 정확한 개념 진단이 필요한 시점이다. 세계경제포럼(WEF)이 공식 홈페이지에 AI의 이해를 돕기 위한 글을 게재했다.   

WEF의 AI 및 기계 학습(머신러닝) 책임자인 케이 퍼스-버터필드는 홈페이지에서 AI의 다양한 유형, 기계학습 분야의 중요한 개발 및 응용에 대해 자세히 설명하고, 가장 중요한 부분으로 AI에 대한 일반적인 오해에 대해 논하고 있다.

◆ AI의 다양한 종류
AI는 여러 가지 다른 기계 학습 모델로 구성되어 있다. 여기에는 강화 학습, 지도 및 비지도 학습, 컴퓨터 비전, 자연어 처리 및 딥 러닝이 포함되지만, AI는 이에 국한되지 않는 더 넓은 개념이다.

모든 기계 학습 모델은 통계적 예측을 개발하고 발전시키지만, 데이터의 사용과 이해에 있어서는 다르다. 예를 들어, 챗GPT는 문장에서 가장 가능성과 정확성이 높은 다음 단어를 예측할 수 있는 AI 기반 챗봇이다. 수많은 비교적 정확한 예측을 통해 챗GPT는 일관성 있는 문장과 단락을 만들 수 있다.

◆ AI에 대한 오해.."AI는 지능이 아니라 예측일 뿐"
분명히 말하지만 AI는 지능이 아니라 예측이다. 대규모 언어 모델을 통해 원하는 결과를 정확하게 예측하고 실행하는 기계의 능력이 향상되었다. 그렇다고 이것을 인간의 지능과 동일시하는 것은 실수일 것이다.

대부분의 경우 한 번에 하나의 작업만을 잘 수행할 수 있는 기계 학습 시스템을 검토할 때 이는 분명하다. 이것은 상식이 아니며, 멀티태스킹을 쉽게 할 수 있는 인간의 사고 수준과 동등하지 않다. 인간은 하나의 소스로부터 정보를 가져와 그것을 다양한 방식으로 사용할 수 있다. 즉, 우리의 지능은 다른 부분으로 이전하고 응용할 수 있지만 기계의 지능은 그렇지 않다.

◆ AI의 가장 큰 잠재력
AI는 교육, 의료, 기후 변화와의 싸움을 포함한 다양한 분야에서 좋은 일을 할 수 있는 엄청난 잠재력을 가지고 있다. 예를 들어, 파이어AID(FireAID)는 산불 위험 지도를 사용하여 계절 변수를 기반으로 산불 가능성을 예측하는 AI 기반 컴퓨터 시스템이다. 또한 산불 위험 및 심각도를 분석하여 자원 할당을 결정하는 것도 지원한다. 

한편, 의료 분야에서 AI는 보다 개인적이고 효과적인 예방, 진단, 치료를 통해 환자 관리를 개선하는 데 사용되고 있다. 효율성이 향상되면 의료비용도 절감된다. 게다가 AI는 노인들을 위한 의료 서비스를 극적으로 변화시키고 이상적으로 개선할 것이다. 

◆ 과장된 AI의 잠재력
AI의 잠재력에 대한 과장은 대부분 AI가 실제로 무엇을 할 수 있는지에 대한 오해에서 비롯된다. 우리는 여전히 지속적으로 환각을 일으키는 많은 AI 기반 기계를 본다. 즉 많은 오류를 범한다는 의미다. 따라서 이러한 유형의 AI가 인간의 지능을 대체할 것이라는 생각은 거의 실현 불가능하다고 보면 된다.

AI 채택의 또 다른 장애물은 AI 시스템이 대표성이 없는 소스로부터 데이터를 끌어낸다는 사실이다. 대부분의 데이터는 북미와 유럽의 작은 일부에서 생성되며, AI 시스템은 이러한 세계관을 반영하도록 이끌고 있다. 예를 들어, 챗GPT는 주로 해당 지역들에서 쓰여진 단어를 끌어낸다. 한편, 거의 30억 명의 사람들이 여전히 인터넷에 정기적으로 접속하지 못하고 있으며, 스스로 어떠한 데이터도 만들어내지 못하고 있다.

◆ AI와 관련된 가장 큰 위험
AI 시스템은 비교적 새로운 것이다. 계속 새롭게 재탄생하고 있다. 기업들과 일반 대중들은 AI를 사용하기 전에 주의할 필요가 있다. 사용자는 항상 AI 시스템이 책임감 있게 설계되고 개발되었으며, 잘 테스트되었는지 확인해야 한다. 다른 제품을 보라. 자동차 제조업체는 사전에 엄격한 테스트를 거치지 않고는 신차를 출시하지 않는다.

테스트를 거치지 않고 제대로 개발되지 않은 AI 시스템을 사용할 경우의 위험성은 브랜드 가치와 명성을 위협한다. 뿐만 아니라 더욱 심각한 것은 사용자가 소송에 노출될 수 있다는 것이다. 예를 들어, 미국에서는 차별적인 AI 채용도구 사용에 대해 기업들이 책임져야 한다는 명확한 규정이 정부에 의해 만들어졌다. 

또한 개발 및 운영에 엄청난 양의 힘을 사용하는 AI와 첨단 컴퓨터 시스템을 둘러싼 지속 가능성 우려도 있다. 이미 전체 정보통신 기술 생태계의 탄소 배출량은 항공 산업의 배출량과 같다.

◆ 책임감 있는 AI 개발을 위한 조치
사람들은 우선 AI가 문제를 해결하거나 시스템을 개선하기 위한 최고의 도구인지 아닌지를 생각해야 한다. AI가 적절하다면 시스템이 대중에게 공개되기 전에 신중하게 개발되고 잘 테스트되어야 한다.

사용자는 또한 법적 규정을 알아야 하며, 공공 및 민간 부문은 AI 적용을 위한 적절한 가이드라인을 개발하기 위해 협력해야 한다.

마지막으로, 사용자는 책임감 있는 AI를 도입하는 데 도움이 되도록 개발된 다양한 도구와 자원을 사용해야 할 것이다. 

저작권자 © 스마트투데이 무단전재 및 재배포 금지