기존 “‘알고리즘 투명화법’ 답습 안 된다” 업계 우려

[아이티데일리] 최근 생성형 인공지능(AI)이 부상하면서 AI의 판단 결과가 편향적이지 않도록 모델의 투명성을 확보하고자 하는 움직임이 일고 있다. 미국에서는 AI 모델의 투명성을 촉진하고자 관련 법안을 발의하는 등 임법에 박차를 가하고 있다. 우리나라 역시 AI 모델 투명성을 담보할 수 있는 법안의 필요성이 제기되고 있다.

국내 AI 업계는 우리나라만의 AI 모델 투명성을 담보할 수 있는 법안이 필요하다고 주장한다. 다만 미국의 AI 모델 투명성 법안과 같이 AI 모델의 편향성을 최소화하고 투명성을 확보하되 산업의 성장을 저해하지 않아야 한다는 입장이다.

2023년 12월 26일 미국의 애나 에슈(Anna Eshoo), 돈 베이어(Don Beyer) 하원의원은 ‘AI 파운데이션 모델 투명성 법안(AI Foundation Model Transparency Act)’을 발의했다. 법안의 요지는 AI 모델 개발자와 배포자가 모델 훈련에 사용된 데이터와 모델의 한계와 위험, 훈련 프로세스, 추론을 위한 사용자 데이터 수집 여부 등에 대한 정보를 소비자와 연방거래위원회에 제공해야 한다는 것이다.

업계 한 관계자는 “통상 ‘블랙박스’라고 불리는 AI 기반 모델은 특정 답을 제공하는 이유를 명확하게 설명할 수 없다. 미국의 법안은 사용자에게 어떤 배경 정보를 어떻게 학습시켰고, 결과를 도출했는지 등에 대한 정보를 제공하는 것이다. 이로 인해 투명성이 크게 높아질 것으로 보인다. 또한 데이터의 한계, 잠재적 편향성, 오해의 소지가 있는 결과를 식별하는 데에도 큰 도움이 될 것이다”라고 미국의 AI 기반 모델 투명성 법안에 대해 설명했다.

지난 2021년 ‘AI 산업 발목잡기 법’으로 불렸던 ‘알고리즘 투명화법(발의: 정의당 류호정 의원)’과는 다르게 미국의 ‘AI 파운데이션 모델 투명성 법안’이 호평을 받는 이유는 무엇일까. 가장 큰 차이는 법이 AI 산업의 현실을 반영했는지에 있다.

알고리즘 투명화법은 누구든 영리를 목적으로 알고리즘의 검색, 배열 원리 설명을 요구할 수 있는 권리인 ‘설명요구권’이 핵심이었다. 하지만 이는 AI가 직접 알고리즘을 구축하고 반복 학습하는 오늘날 AI의 작동 원리를 전혀 고려하지 않아, 활성화되기 시작한 AI 산업을 저해할 수 있다는 우려가 지배적이었다.

알고리즘의 작동 방법은 공개하지 않아도 좋으니 무슨 데이터로 어떻게 학습시켰고, 어떠한 한계와 위험성이 있는지 공개해 투명성을 확보하고 산업을 이해한 법안과 이러한 이해 없이 무작정 알고리즘 구동 방법 및 판단 과정을 설명하라는 우리나라의 법안, 과연 어떤 법안이 산업 발전에 도움이 되고 더 합리적일까?

현재 생성형 AI로 인해 AI 시스템이 판단한 결과를 인간에게 설명할 수 있도록 하는 개념인 설명 가능한 AI(XAI, eXplainable AI)가 재조명받고 있는 상황에서 각국은 AI 모델의 편향성을 없애고 투명성을 제고할 수 있는 법을 마련하기 위해 고심하고 있다. 우리 정부도 AI에 관심이 집중되고 있는 상황에서 AI 모델 투명성을 담보할 수 있는 법안 마련 논의를 시작해야 할 시점이다. AI 산업의 ‘발목을 잡지 않으면서’도 ‘AI 모델 투명성을 확보할 수 있는’ 법안에 대해 고민해야 할 때다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지