치명적인 위험을 추적, 평가, 예측하고 이를 보호하는 것을 목표

 

인공지능(AI) 기술의 급속한 발전과 함께 위험성에 대한 우려가 제기되는 가운데 챗GPT 개발사 오픈AIAI가 가져올 위험에 대비하기 위한 조직을 신설했다.

오픈AI[로이터 연합뉴스 자료사진. 재판매 및 DB 금지]
오픈AI[로이터 연합뉴스 자료사진. 재판매 및 DB 금지]

오픈AIAI'재앙적 위험'을 줄이기 위해 자체 '대비팀'(preparedness team)을 구축했다고 27(현지시간) 밝혔다.

이 조직은 AI가 야기할 수 있는 "치명적인 위험을 추적, 평가, 예측하고 이를 보호하는 것을 목표로 할 것"이라고 오픈AI는 설명했다.

AI가 핵무기 등의 무기에 사용되는 '화학적, 생물학적, 방사능적 위협'과 함께 AI가 스스로 복제하는 위험인 '자율 복제'에도 대응한다고 덧붙였다.

오픈AI"우리는 현재 가장 진보된 기존 모델의 기능을 뛰어넘는 프런티어 AI 모델이 인류에게 혜택을 줄 수 있는 잠재력이 있다고 믿는다"면서도 "하지만 이는 점점 더 심각한 위험을 초래할 수도 있다"고 우려했다.

이어 "이런 위험한 상황을 피하려면 새로운 AI 시스템의 위험한 기능을 예측하고 사람들을 보호할 수 있는 뼈대를 구축해야 한다""이것이 새로운 팀의 임무 중 하나가 될 것"이라고 말했다.

이 조직은 현재 매사추세츠공대(MIT)의 머신러닝(기계학습) 센터장을 맡고 있는 알렉산더 매드리가 이끌게 된다. 조직 규모는 알려지지 않았다.

오픈AI의 최고경영자(CEO)인 샘 올트먼은 앞서 AI로 인한 재앙 가능성을 경고한 바 있다.

그는 지난 5월 다른 AI 연구자들과 함께 "AI로 인한 위험을 완화하는 것이 글로벌 우선순위가 돼야 한다"는 성명을 발표하고 인류의 절멸 가능성까지 언급하며 AI 기술 통제 필요성을 주장한 바 있다.

또 각국 정부가 AI를 핵무기처럼 "심각하게" 다뤄야 한다고 강조하기도 했다.

 

(샌프란시스코=연합뉴스) 김태종 특파원 = taejong75@yna.co.kr

 
저작권자 © 코람데오닷컴 무단전재 및 재배포 금지