윤리 가이드라인
안정성과 보안
AI 시스템은 다양한 분야의 의사결정과 서비스 운영에 활용되는 만큼,
예기치 않은 오류나 오작동으로 인한 위험을 최소화할 수 있도록
안전하게 설계되고 운영되어야 합니다.
특히 AI 도입 과정에서 발생할 수 있는 잠재적 위험을 사전에 분석하고,
상황별 대응 체계를 마련하는 것이 중요합니다.
대한인공지능윤리협회는 AI 시스템의 안정적인 운영과 보안을 확보하기 위해
사전 리스크 평가와 지속적인 모니터링 기준을 제시하고 있습니다.
또한 오작동이나 악용 가능성을 예방하고 필요 시 사람의 개입을 통해 통제할 수 있는 안전 장치를 마련하여
신뢰할 수 있는 AI 활용 환경을 조성하는 것을 목표로 하고 있습니다.
위험 평가
-
사전 리스크 분석
-
시나리오별 영향 평가
-
비상 대응 계획 수립
-
AI 시스템 도입 전 윤리·안전성 검토 절차 마련
-
예상 가능한 오작동 및 오류 상황 점검
-
서비스 운영 환경에 따른 위험 요소 식별
-
주요 위험 요소에 대한 대응 프로세스 수립
안전장치 마련
-
긴급 중단 기능
-
사람의 개입 가능성 보장
-
이상 행동 탐지 시스템
-
AI 시스템 이상 발생 시 자동 경고 체계 구축
-
AI 운영 과정에 대한 실시간 모니터링 체계 구축
-
악용 가능성을 예방하기 위한 접근 통제 기능


