AI의 '왜'를 밝히다…최재식 교수, 설명가능 AI로 한국 신뢰도 높여
최재식 KAIST AI대학원 교수가 '설명가능 인공지능'(XAI) 기술로 한국을 AI 신뢰성 분야 글로벌 리딩 국가로 이끌고 있다고 밝혔다. AI가 중요한 결정을 내리는 시대에, 이유를 알 수 없다면 사람들의 믿음을 얻기 어렵다. AI의 치명적인 오류 가능성 때문에 AI 의사결정 과정을 명확히 이해하는 것이 매우 중요하다. XAI는 AI 결과에 대한 '왜?'라는 질문에 답하며, AI가 처음부터 설명하기 쉽게 만들어지거나 복잡한 AI 작동 방식을 풀어내는 역할을 한다. 생명이나 재산에 큰 영향을 주는 '고위험 AI'는 이미 유럽연합(EU)과 한국 법률에서 설명 의무를 명시했다.
최 교수는 구글코리아 '책임감 있는 AI포럼' 의장으로서 한국의 AI 신뢰성 및 안전성 논의 수준은 뒤처지지 않으며, 설명성 분야에서 한국이 리딩 국가 중 하나라고 강조했다.
한국 연구팀은 설명가능 인공지능 국제 표준 제정에 참여하고 있으며, 글로벌 리서치 허브로서 한국이 주도적인 역할을 할 수 있도록 소통하고 있다.
본 기사는 AI가 생성하였으며, 사람이 검수한 기사입니다.
쿠팡 파트너스 활동의 일환으로 일정 수수료를 제공받습니다
데일리 브리핑 구독
매일 아침 핵심 뉴스를 이메일 또는 SMS로 받아보세요. 무료
