IT 지식이 풍부한 고양이 ‘요고’가 답변해 드려요.
인공지능이 실수한 사례로는 AI가 틀린 정보를 보여 주거나, 데이터에 담긴 인간의 인지 편향을 그대로 반영하는 경우가 있었어요. 이에 관련해서는 우리나라에서는 과학기술정보통신부, 방송통신위원회, 금융위원회 등에서 인공지능 법안과 가이드라인을 예고하고 발표함으로써 AI 윤리 규제를 시작했고, 일부 선진국에서는 관련 표준을 수립하고, 모니터링하기 위한 기술 및 솔루션 시장이 함께 성장하고 있다고 해요. 또한, AI 모델이 편향성을 문제로 할 때 빅테크 기업들이 편향성 검증 도구를 개발해 사용하고 있는데요. 국내에서도 AI 모델과 학습데이터의 편향성을 분석, 탐지, 완화, 제거하는 프레임워크인 MAF2022가 개발된 사례가 있었고, 다양한 노력들이 편향 문제를 개선하기 위한 방향으로 진행되고 있다고 해요.