윤리 가이드라인
책임성과 거버넌스
AI 시스템은 개발부터 운영, 그리고 결과 활용에 이르기까지
명확한 책임 구조와 관리 체계를 기반으로 운영되어야 합니다.
특히 AI가 사회적 의사결정에 영향을 미칠 수 있는 만큼,
시스템의 설계와 운영 과정에서 책임 주체를 분명히 하고
투명한 의사결정 체계를 마련하는 것이 중요합니다.
대한인공지능윤리협회는 AI 시스템의 책임성을 강화하기 위해
책임자 지정, 의사결정 과정의 문서화, 사고 발생 시 대응 절차 등 거버넌스 기준을 제시하고 있습니다.
또한 AI의 성능과 윤리 기준 준수 여부를 지속적으로 모니터링하고 개선할 수 있는
관리 체계를 마련하여 책임 있는 AI 활용 환경을 조성하는 것을 목표로 하고 있습니다.
명확한 책임 소재
-
책임자 지정
-
의사결정 체계 문서화
-
사고 발생 시 대응 프로세스
-
AI 시스템 개발 및 운영 단계별 책임 범위 명확화
-
주요 의사결정 과정에 대한 기록 및 관리
-
문제 발생 시 책임 주체 확인을 위한 관리 체계 구축
-
이해관계자 간 역할과 책임에 대한 명확한 구분
지속적 모니터링
-
정기 성능 평가
-
사용자 피드백 수집
-
윤리 기준 준수 점검
-
AI 시스템 운영 데이터에 대한 지속적 모니터링
-
알고리즘 편향 및 오류 발생 여부 점검
-
서비스 업데이트 및 개선 사항 정기 반영
-
문제 발생 시 개선 및 재검토 절차 운영


