산업
[마이데일리 = 박성규 기자] 카카오는 AI(인공지능) 기술 개발과 운영 과정에서 발생할 수 있는 리스크를 사전에 식별하고, 이를 관리하는 프로세스를 정의한 리스크 관리 체계인 ‘카카오 ASI’를 구축했다고 23일 밝혔다.
카카오 ASI는 AI 기술 개발·운영 상 위험 발생을 최소화하고, 안전하고 윤리적인 AI 시스템을 구축하기 위한 종합 지침이다. 기술 설계부터 개발, 테스트, 배포, 모니터링·업데이트 등 AI 시스템 전 생애주기에서 발생할 수 있는 리스크에 선제적인 대응이 가능하다.
카카오 ASI는 △카카오 AI 윤리 원칙 △리스크 관리 사이클 △AI 리스크 거버넌스라는 3가지 핵심요소로 구성된다.
카카오 AI 윤리 원칙은 지난 2023년 3월 발표한 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인’을 기반으로 하며, 사회 윤리, 포용성, 투명성, 프라이버시, 이용자 보호 등 원칙을 포함한다.
리스크 관리 사이클은 리스크를 체계적으로 다루기 위한 접근법으로, 식별-평가-대응 순환 단계로 구성된다.
AI 리스크 거버넌스는 AI 시스템 개발, 배포, 사용 등을 관리하고 감독하는 의사 결정 체계를 뜻한다.
카카오 김경훈 AI Safety 리더는 “AI 시스템 이용에 따른 리스크 발생 주체를 AI와 인간으로 구분했다”며 “발생 주체 별 리스크 특성을 반영하여 평가·대응방안을 마련하였다는 점이 타사 AI 리스크 관리 프레임워크와 차별화되는 점” 이라고 말했다.
박성규 기자 psk@mydaily.co.kr
- ⓒ마이데일리(www.mydaily.co.kr).
무단전재&재배포 금지 -
댓글
[ 300자 이내 / 현재: 0자 ]
현재 총 0개의 댓글이 있습니다.