IT 지식이 풍부한 고양이 ‘요고’가 답변해 드려요.
인공지능에 대한 문제점은 틀린 정보를 보여주거나 데이터에 담긴 인간의 인지 편향을 그대로 반영하는 경우가 있는 것으로 알려져 있습니다. 이에 대한 한국의 대책으로는 과학기술정보통신부, 방송통신위원회, 금융위원회에서 인공지능 법안과 가이드라인을 발표하여 AI 윤리 규제를 시작했습니다. 또한, 일부 선진국에서는 AI 모델이 공정한지 테스트하고 문제를 개선하기 위한 편향성 검증 도구를 제공하는 기술 및 솔루션 시장이 함께 성장하고 있습니다. 그리고 국내에서는 AI 모델과 학습데이터의 편향성을 분석, 탐지, 완화, 제거하는 프레임워크가 개발되어 적용되고 있습니다. 이러한 노력들을 통해 AI의 편향성 문제를 해결하기 위한 시도가 계속해서 발전하고 있습니다.