유럽연합 AI 규제법 ① 두 얼굴의 AI

세계 최초 AI 규제법 마련한 EU, 내달 본회의 3자협의 타결 시 역내 효력 발휘 음지 드러내는 생성형 AI, 저작권 침해 및 가짜뉴스 생산으로 골머리 가장 무서운 시나리오는 ‘인간의 통제력 상실’, “국제기구 필요하다”는 의견도

유럽연합(EU)의 입법기구인 유럽의회가 세계 최초로 인공지능(AI)에 대한 포괄적 규제법을 마련하기 위해 박차를 가하고 있다. AI가 인간의 생명을 구할 수도 있지만 오용될 경우 자칫 큰 재앙을 불러올 수 있다는 우려에서다.

지난 11일(현지 시각) 유럽의회 산하 소비자보호위원회는 EU 전역에서 챗GPT, 미드저니 등 AI 기술을 규제하기 위한 법안 관련 입장을 채택했다. EU의 AI 규제법 초안에는 원격 안면인식 등 생체정보 활용 AI 규제를 강화하고, 생성 AI가 만들어 낸 글이나 이미지는 AI에 의해 작성된 것이라고 명확히 알리는 투명성 강화 조처 등이 포함됐다.

챗GPT로 촉발된 생성형 AI 열풍, 오남용 방지 위한 통제 시급하다

챗GPT에 열광하던 전 세계가 이제는 규제를 논의하고 있다. AI의 잘못된 사용을 통제해야 한다는 글로벌 공감대가 형성되고 있는 것이다. 이미 글로벌 시장에서는 AI 규제 방안을 마련하는 노력이 이뤄지고 있다. 지난 19~21일 일본 히로시마에서 열린 주요 7개국(G7) 정상회의에서도 AI 규제를 주요 의제로 채택했다. 당시 G7 정상들은 ‘신뢰할 수 있는 AI’라는 공통 목표 달성을 위한 논의를 진행했으며, 생성형 AI와 관련된 국제 규범과 국제적 정보유통 채널을 만들기로 합의했다.

유럽의회는 AI 서비스가 주목받기 시작한 2021년부터 AI 규제 입법 절차에 착수한 바 있다. 해당 AI 규제 제안에는 인간과 유사한 응답이 가능한 챗GPT와 같은 생성형 AI에 대한 규제는 없었다. 그러나 지난해 12월 공개된 챗GPT가 출시 두 달 만에 월간 활성사용자수(MAU) 1억 명을 돌파하는 등 전 세계적인 생성형 AI 열풍이 몰아치자 이를 규제하는 데 한계가 있다고 보고 초안을 다시 작성하며 생성형 AI 관련 규제 마련을 서두르고 있다. 이번 법안에는 AI 규제와 관련해 더욱 강화된 방안이 포함됐다. 소비자보호위원회는 앞서 집행위가 발의한 초안에 생체 감시 및 사용자 감정 분석 등의 기능을 금지하는 규제 방안을 추가했다. 닛케이에 따르면 EU 집행위에서 생성형 AI 규제와 관련해 시행 시기나 내용 등을 구체적으로 밝힌 것은 이번이 처음이다.

이번 법안이 최종적으로 제정될 경우 AI와 관련한 광범위한 규제를 담은 첫 법률이 되는 만큼 통과 여부에 관심이 집중되고 있다. 법안은 EU 입법절차에 따라 오는 6월 유럽의회의 본회의 표결에 부쳐질 예정이다. 이후 유럽의회, EU집행위원회, EU이사회의로 구성된 3자 협의가 타결될 경우 역내에서 효력을 발휘하게 된다. 다만 이 과정에서 법안 내용이 바뀌거나 유예기간을 거쳐 시행될 가능성이 크다. 기업들이 2~3년간의 적응 기간을 요구할 경우 실제 법이 적용되는 시점은 4년 뒤가 될 수도 있다는 관측도 나온다.

생성형 AI, 이기와 흉기 사이

2022년 11월 오픈AI사가 개발한 생성형 AI인 챗GPT가 등장한 이후 인류는 AI의 가능성에 맞닥뜨리게 됐다. 어떤 질문이든 3초 만에, 그것도 심도 있는 답변을 내놓는 챗GPT는 가히 충격적이었다. 챗GPT의 정교한 능력은 순식간에 입소문을 탔고, 단 5일 만에 사용자 1백만 명을 돌파했다. 툴테스터에 따르면 현재 챗GPT의 월 방문자는 10억 명에 육박한다.

생성형 AI는 새로운 서비스와 제품의 개발 속도를 앞당겨 준다는 점이 강점으로 꼽힌다. 또한 인간과의 상호작용에 있어 새로운 가능성을 열어준다. 뿐만 아니라 인간과 AI가 협력해 창조적인 작업을 수행함으로써 첨단 산업의 생산성과 효율성 제고에도 기여한다. 챗GPT 탄생에 전 세계가 열광한 것도 이 때문이다. 그러나 반년이 지난 지금, 생성형 AI의 어두운 면이 속속 드러나고 있다. 이에 주요국을 중심으로 생성형 AI를 포함해 향후 등장할 AGI(Artificial General Intelligence·범용인공지능)에 대한 규범을 만들어야 한다는 목소리가 커지고 있다. AGI는 스스로 생각할 수 있을 뿐만 아니라 시간이 지나면서 기하급수적으로 똑똑해질 수 있다는 특징이 있다.

EU가 이번 AI 규제에 나선 건 저작권 침해 논란이 워낙 거셌던 탓도 있다. 생성형 AI는 인터넷상의 방대한 데이터를 기반으로 사용자가 입력하는 명령어(프롬프트)에 따라 글이나 그림, 영상, 음악 등을 산출한다. 문제는 학습에 사용되는 원데이터도 당초 누군가가 생산한 콘텐츠라는 점이다. 그러나 AI 회사들은 사실상 저작권 보호를 받는 자료를 무단으로 활용하면서도 자료에 대한 출처 등은 따로 공개하지 않았다. 이 때문에 콘텐츠 창작자들과 AI 회사들 간 갈등도 고조되고 있다.

실제로 지난 1월 유료 이미지 제공 업체인 게티이미지는 영국의 이미지 생성 AI 스타트업인 ‘스태빌리티 AI’를 상대로 저작권 침해 소송을 제기했다. 스태빌리티 AI가 적합한 절차를 거치지 않은 채 게티이미지가 소유한 라이센스를 AI 학습에 사용했다는 혐의다. 이에 앞서 지난해 11월에는 변호사이자 개발자인 매슈 버터릭이 코딩 AI인 ‘코파일럿’ 제작에 관여한 깃허브·마이크로소프트(MS)·오픈AI를 상대로 집단 소송을 제기하기도 했다. 코파일럿이 수백만 명의 프로그래머가 올린 코드를 AI 학습에 무단으로 사용한 것은 저작권 침해라는 주장이다. 이처럼 최근 AI 업계에서는 학습용 데이터의 중요성이 갈수록 커지고 있다. 월스트리트저널(WSJ)은 EU의 AI 규제 법안은 콘텐츠 제작자가 AI 업계에 생성형 AI로 인한 수익 일부를 요구할 수 있는 무기가 될 것이라고 평가했다.

22일(현지 시간) 미국 수도 워싱턴의 국방부 청사 ‘펜타곤’이 화재로 검은 연기에 휩싸인 듯 보이는 이미지가 소셜미디어에 급속도 퍼졌다/사진=트위터

‘펜타곤 폭발·트럼프 체포’ AI로 생산한 가짜 사진에 증시까지 출렁

AI에 대한 규제 법안 마련의 또 다른 배경에는 AI의 부작용이 있다. SNS상에서 퍼진 미국의 펜타곤 폭파 사진이 AI 부작용의 단적인 예다. 지난 22일(현지 시각) 오전, 흰 건물 옆으로 검은 연기가 무섭게 솟구치는 사진이 ‘속보 펜타곤 근처에서 폭발’이라는 문구와 함께 트위터에 게재됐다. 언뜻 9·11이 떠오르는 폭발 현장 사진이다.

그러나 해당 사진은 생성형 AI가 만들어 낸 ‘가짜’였다. 일부 이용자들은 이를 ‘블룸버그’의 보도로 잘못 받아들여 ‘가짜 뉴스’를 거듭 공유했고, 러시아와 인도 언론도 해당 사진에 낚여 이를 긴급속보로 보도했다가 나중에 사과하는 소동까지 벌어졌다. 심지어 미국 국방부가 빠르게 해당 사실을 부인하고 버지니아주 알링텅 소방서가 가짜뉴스를 공식 확인했음에도 불구하고 실제라고 믿은 사람들 탓에 이날 미국 증시까지 출렁였다. 장 초반 상승세였던 뉴욕 증시는 10분 만에 S&P500 지수가 0.3%p 하락하는 등 혼조세를 보인 것이다.

미드저니로 제작된 도널드 트럼프 전 대통령의 가짜 사진들/사진=엘리엇 하긴스 트위터

이에 앞서 지난 3월에는 도널드 트럼프 미국 전 대통령이 △체포당하지 않으려 경찰에 저항하는 모습 △경찰을 피해 도망가는 모습 △교도소에 수감돼 청소하는 모습 등이 트위터를 통해 급속도로 확산됐다. 그런데 이미지를 자세히 보면 경찰관들의 제복에 새겨진 글자가 심하게 왜곡돼 있고, 인물들의 손이나 얼굴도 비현실적으로 뒤틀려 있다. 모두 텍스트를 이미지로 생성해 주는 AI ‘미드저니’를 이용해 만든 가짜 사진이다. 해당 사진들은 최근 뉴욕 경찰이 트럼프 전 대통령이 성 추문을 입막음하려 돈을 썼다는 의혹에 대한 수사를 마무리했다는 보도가 나오면서 퍼지기 시작했다.

최근 챗GPT를 필두로 다양한 형태의 AI들이 쏟아지는 가운데, 가짜 이미지가 실제 시장에까지 영향을 미친 것이다. 외신들은 일제히 “이번 사태는 AI가 만든 가짜뉴스와 이미지가 사회를 어떻게 뒤흔들 수 있는지 보여주는 극명한 사례”라고 진단했다.

AI 부작용 중 가장 두려운 시나리오는 ‘인간의 통제력 상실’이다. 실제로 지난 3월 벨기에에서 한 30대 남성이 AI 챗봇과의 대화 중 자살을 부추기는 메시지를 받은 이후 자살한 사실이 알려지면서 AI에 대한 논란이 가열됐다. 이처럼 생성형 AI 기술이 지나치게 발전하면 이를 통제할 능력을 상실할 수도 있다고 우려한 수천 명의 기술 전문가는 지난 3월 공개서한을 통해 생성형 AI 기술 개발의 중단을 촉구했다. 특히 오픈AI의 GPT-4 알고리즘을 구체적으로 지목하며 오픈AI는 감독 기준이 마련될 때까지 최소 6개월간 추가 개발을 중단해야 한다고 역설하기도 했다.

유럽연합을 비롯한 각국에서 생성형 AI 규제법 마련을 서두르는 것도 이런 이유에서다. 또한 챗GPT 창시자인 오픈AI의 샘 올트먼 최고경영자가 생성형 AI의 구체적인 규제안 마련을 촉구한 데 이어 AI의 잠재적 위험을 통제하고 부작용을 막기 위해 국제원자력기구(IAEA)와 같은 국제기구가 필요하다고 재차 강조한 것도 이와 궤를 같이한다.

Similar Posts