2024.05.17 (금)
오픈AI가 지난 7월 5일 안전한 인공지능(AI) 기술을 위한 단계적 계획을 발표했다.
오픈AI는 홈페이지 공지를 통해 초지능 AI의 부작용을 막기 위해서는 무분별하고 악의적인 사용을 규제하는 노력이 필요하다며, 이와 관련된 투자를 늘리고 전담 연구팀을 설립할 계획이라고 밝혔다.
오픈AI, 인간 수준의 AI 조정 감독관 만들 것
오픈 AI의 공동 창업자인 일리야 수츠케버와 조정담당인 얀 라이케는 AI의 오용이나 통제되지 않는 행동을 방지할 필요성을 강조했다. 이들은 초지능 AI의 힘이 인류를 공격해 멸종을 초래할 수 있다고 경고했다.
그들은 초지능 AI를 제어하기 위한 해결책이 부족하다는 점을 인정하며, 이 문제를 해결하기 위해 현재 확보한 컴퓨팅 전력의 20%를 향후 4년간 사용하기로 약속했다. 또한, 슈퍼 얼라인먼트 팀을 구성해 인간 정도 수준의 AI 조정 연구원을 훈련시켜, 엄청난 양의 컴퓨팅 능력을 동원해 확장해나가는 것을 목표로 한다고 설명했다.
AI 전문가들, “초지능 AI 모델 개발 전에 먼저 조정 대책 마련돼야” 우려
하지만, 오픈 AI의 계획에 대해 일부 AI 전문가들은 우려를 표명했다.
코너 리히 AI 안전 전문가는 "인간 정도 수준 AI 연구원이 잘 만들어지지 않으면 혼란을 초래할 수 있기에 오픈AI의 계획에는 결함이 있다"고 주장했다. 이어 그는 초지능 AI를 구축하기 전에 먼저 인간 정도의 AI 조정 연구원을 만들어야 한다고 강조했다.
챗GPT가 등장한 후 초지능 AI의 위험은 AI 연구자와 대중들에게 큰 관심을 불러 일으키고 있다. 지난 4월에는 AI 업계 리더들과 전문가들이 잠재적인 사회적 위험을 이유로 오픈AI의 GPT-4보다 높은 성능의 AI 모델 개발을 6개월 유예할 것을 요구하기도 했다.
또한 최근 5월 로이터 통신이 실시한 여론 조사에 따르면, 미국인의 2/3 이상이 AI의 부정적인 결과를 걱정하고 있으며, 그중 61%는 AI가 인류에 위협이 된다고 응답했다.
한 AI 전문가는 “오픈AI가 초지능 AI의 부작용 문제를 해결하기 위해 노력하는 것은 바람직하지만, 오픈AI도 사익을 추구하는 기업이기에 어디까지나 견제와 감시가 필요하다. 어디까지나 AI는 인류의 가치에 부합하고 사회에 이익이 되는 미래를 만드는 것이다”라고 강조했다.
*이 기사는 챗GPT와의 협업을 통해 작성됐습니다.
Copyright @2024 CIOCISO매거진. All rights reserved.