2024.05.17 (금)
과기정통부가 챗GPT 등 초거대·생성형 인공지능(AI)의 윤리와 신뢰성을 확보하기 위한 윤리정책 포럼을 구성했다.
과학기술정보통신부(이하 과기정통부)는 정보통신정책연구원(이하 KISDI)과 한국정보통신기술협회(이하 TTA)와 함께 4월 7일 서울 서초구 엘타워에서 ‘제2기 인공지능 윤리 정책 포럼’ 출범식을 개최했다.
오늘 출범한 제2기 AI 윤리 정책 포럼에서는 지난해 의견 수렴을 거친 ‘AI 윤리 기준 실천을 위한 자율점검표(안)(챗봇, 작문, 영상 분야)’ 및 ‘신뢰할 수 있는 AI 개발안내서(안)(일반, 공공사회, 의료, 자율주행 분야)’를 공개했고, 초거대·생성형 AI의 확산에 따라 거짓 정보의 확산, 알고리즘의 편향성, 사생활 침해 등 부정적 영향에 대한 각종 우려가 제기되고 있는 상황에서 AI 윤리·신뢰성 확보를 위해 필요한 정책 방향에 관한 종합 토론을 진행했다.
향후 지속적인 포럼을 통해 관련 기술 및 윤리 이슈에 대한 국내·외 동향을 살피고 윤리적이고 신뢰할 수 있는 초거대·생성형 AI가 개발·운영될 수 있도록 균형잡힌 시각에서 우리나라 AI 윤리정책 방향을 제시하고, 신뢰성 검·인증 체계 구축 등 주요 관련 정책 과제에 대한 의견 수렴을 진행해 나갈 계획이다.
이를 위해, 김명주 서울여자대학교 정보보호학과 교수가 포럼위원장을 맡고, AI, 철학, 교육, 법, 행정 등 분야별 전문가를 비롯해 AI 산업계 종사자까지 포함하여 총 30명이 포럼위원으로 활동한다.
포럼은 운영의 효율성과 논의의 전문성을 높이기 위해 3개의 전문분과위원회로 구성해 ▲AI 윤리체계 확산(이하 윤리분과) ▲AI 신뢰성 확보 기술 기반 마련(이하 기술분과) ▲AI 리터러시 및 윤리교육 강화(이하 교육분과)의 큰 주제 안에서 세부적인 논의를 진행할 계획이다.
윤리분과(분과장 문정욱 KISDI 지능정보사회정책센터장)는 초거대·생성형 AI의 편향성, 허위정보 등 역기능 대응 방안, 책임성·투명성 확보 방안 등에 대해 논의하고 ‘AI 윤리영향평가 프레임워크’ 개발에 대한 의견수렴을 진행할 계획이다.
기술분과(분과장 이강해 TTA AI디지털융합단장)는 초거대·생성형 AI의 위험요소 도출 및 신뢰성 확보를 위한 평가 데이터 구축과 기술 확보 방안 등 기술적인 쟁점을 논의하고, ‘AI 신뢰성 검·인증 체계’ 수립에 대한 의견수렴을 진행할 예정이다.
특히 ‘2022년도에 AI 기업 대상으로 컨설팅을 진행하여 신뢰성 확보 여부를 진단하고 편향성 완화를 위한 보호 변수 고려 및 성능 악화 시 기능적·절차적 대책 마련 등의 개선사항을 제시한 바 있으며, 향후 포럼 운영과정에서 개선 실적에 대해 확인 및 검토해나갈 예정이다.
교육분과(분과장 변순용 서울교대 윤리교육과 교수)는 초거대·생성형 AI의 악의적 사용을 완화·방지하기 위한 윤리적 활용 방안 등 교육 관련 쟁점을 논의하고, 일반인 대상 AI 윤리교육 콘텐츠 개발에 대한 의견수렴을 진행할 예정이다.
출범식에 참석한 과기정통부 엄열 AI기반정책관은 “초거대·생성형 AI이 산업과 우리 일상 속으로 빠르게 확산되고 있는 상황에서 무엇보다도 기술의 개발부터 활용의 전 단계에서 사회적 신뢰를 확보하는 것이 선행되어야 한다. 제2기 AI 윤리정책 포럼이 AI 생태계에 속하는 다양한 이해관계자의 의견을 수렴하여 AI 윤리정책의 방향에 관한 사회적 합의를 마련하는데 기여하고 AI 윤리와 신뢰성을 확산하여 관련 기술·산업 기반을 조성하는데 중추적 역할을 수행해주기 바란다”고 당부했다.
Copyright @2024 CIOCISO매거진. All rights reserved.