이창신 테스트웍스 테크 에반젤리스트

이창신 테스트웍스 테크 에반젤리스트
이창신 테스트웍스 테크 에반젤리스트

[아이티데일리] 인기있는 오징어 게임, AI가 없었다면?

오징어 게임의 인기는 전 세계 소셜 미디어의 뉴스와 밈(meme)으로 엄청난 열풍을 불러일으키고 있다. 이러한 인기는 여러 방면에서 해석될 수 있다. 필자의 경우에는 오징어 게임을 보는 내내 무엇보다 기술의 역할, 특히, 드라마에서 사용된 AI의 역할에 관심을 기울였다. AI가 없었다면 게임의 많은 요소가 불가능했을 것이기 때문이다.


스포일러 경고!

드라마에 나오는 몇 가지 구체적인 사항에 대해 이야기하려고 한다. 혹시 오징어 게임을 아직 보지 않으셨다면 스포일러에 노출될 수 있다.

AI가 핵심이다

오징어 게임의 여러 가지 위험한 게임을 관리하기 위해서는 기술, 특히 AI가 핵심 요소였다. 우선 데이터베이스와 스마트 필터링 및 검색 알고리즘이 없었다면 참가자 선택이 불가능했을 것이다. 검색 엔진을 개발하고 유지 보수하기 위해서는 프론트엔드와 백엔드를 포함한 소프트웨어 엔지니어가 필요하다. 또한 장래의 게임 참가자를 선택하기 위해 추천 시스템도 적용하여 사용했을 것이다.

첫 번째 게임은 영어로 ‘Red Light Green Light’로 번역되었지만, 원래 한국에서는 ‘무궁화 꽃이 피었습니다’였다. ‘무궁화 꽃이 피었습니다’는 술래 인형이 등을 돌린 상태에서 반복하는 문구다. 영미권에서 하는 ‘Red Light Green Light’와는 규칙이 약간 다르다. 플레이어는 술래 인형이 등을 돌리고 문구를 반복하는 동안 이동할 수 있지만, 술래 인형이 뒤돌아보면 정지해야 한다. 아니면 죽는다. 심지어 드라마에서는 실제로 죽는다.

오징어 게임의 술래 인형을 잘 보면 두 개의 줌 카메라 눈을 가진 거대한 로봇이라는 것을 알 수 있다. 참가자를 스캔하기 위해 몸을 돌릴 때마다 움직임을 감지한다. 누군가 움직이면 그 사람을 식별하고 완벽한 정확도로 원격 제어 소총으로 사살한다. 소름 끼치지만 여기에 연관된 기술은 누구나 쉽게 찾아서 쓸 수 있다.

1. 동작 감지: 여기에 관련된 기술은 적용하기 쉬워 몇 줄의 Python 코드로 구현이 가능하다.

출처 : 넷플릭스
출처 : 넷플릭스

2. 얼굴 인식: 사람을 감지하는 것은 객체를 검출하는 기술이다. YOLO(You Only Look Once)와 같은 딥러닝 기술을 사용하면 쉽게 할 수 있다. 하지만 그 사람이 누구인지 식별하려면 훨씬 더 많은 작업이 필요하며, 학습 이미지 데이터셋을 통해 성능 향상이 가능하다.

3. 로봇 공학: 이 장면에서 벽을 따라 여러 개의 원격 제어 소총이 있던 것을 보았을 것이다. 소총에는 센서가 장착되어 있지 않은 것으로 추측건대 시각 정보는 로봇의 눈에서 나오는 것으로 보인다. 시각 정보에는 최소한 표적의 위치, 거리, 그리고 자세가 포함돼야 할 것이다. 카메라로 각 소총의 영점을 보정하는 것은 어려운 일이지만 시간만 있으면 가능하다.

오징어 게임에 사용되는 인공지능 소총 (출처: 넷플릭스)
오징어 게임에 사용되는 인공지능 소총 (출처: 넷플릭스)

이제 왜 사람 대신에 AI가 장착된 로봇 인형과 자동 소총이 게임을 주관했는지 생각해 보고자 한다.

드라마에서도 나오듯, 오징어 게임에서는 공정함이 중요한 요소였고 그 공정함을 보증하기 위해서 AI가 사용되었다. 지면 치명적인 결과가 일어나는 게임을 하는데 실제 사람이 술래 인형으로, 게임 스태프가 저격수 역할을 했다고 상상해 보라. 사람은 많은 사람들의 움직임을 한 번에 정확하고 공정하게 추적하고 감지할 수 없다. 그래서 움직임이 있었느냐 없었느냐를 두고 큰 다툼이 일어날 것이다. 게다가 명사수, 최고의 실력을 가진 저격수조차도 복잡한 군중 속에서 움직이는 여러 물체를 정확하게 명중시킬 수 없었을 것이다.

AI를 사용하면 이러한 모든 문제를 해결할 수 있다. 인간 술래가 당신이 움직였다고 하면 논쟁이 일어날 수 있다. 하지만 AI 로봇이 움직임을 감지하고 쏘면 아무도 이의를 제기하지 않는다. AI는 우리와 직접적인 이해관계가 없어서 모든 사람에게 공평한 것처럼 보인다. 이 드라마에서 참가자들은 패배할 경우 ‘죽음’이라는 가혹한 결과에 대해 항의했지만, 게임의 관리 및 운영에 대해서는 항의하지 않았다. 모두가 게임이 공정하다는 데 동의하는 것이다. 그래서 AI를 쓴 것 같다.


AI는 해결책이 아니다

AI의 편향성은 지난해 미국에서 조지 플로이드의 사망에 따른 여파로 사회적으로 큰 토론 주제가 되었다. 우리는 이제 AI도 인간만큼 또는 훨씬 더 편향될 수 있다는 것을 알고 있다. 문제는 왜곡된 데이터 세트, 훈련에 쓰이는 하이퍼파라미터의 변경, 훈련과 다른 도메인, 악의적인 적대 공격과 같이 여러 방면에서 발생할 수 있다. AI는 아직 초기 개발 단계에 있기 때문에 AI의 문제와 결과에 대해 아직 겨우 ‘수박 겉핥기’만 하고 있다.

오징어 게임은 부자와 권력자가 자신들보다 약한 존재를 착취하기 위해 AI 같은 기술도 도구로 사용할 수 있다는 점을 적나라하게 보여주었다. 소프트웨어 개발자이자 AI 연구원으로서 필자가 하고 있는 일이 이렇게 악의적이고 폭력적인 일의 도구가 될 수 있다는 것은 상상만 해도 끔찍한 일이다.

필자의 이러한 감정은 다른 AI 연구자들도 동일하게 느끼는 것 같다. 오늘날 가장 인기 있는 객체 검출 모델 중 하나인 YOLO는 조셉 레드먼(Joseph Redmon)이 개발했다. 그는 2017년에 널리 시청된 TED 강연에서 자신의 최신 모델을 자랑스럽게 발표했다.

2017년 조셉 레드먼의 TED 강연(How computers learn to recognize objects instantly, 출처: TED)
2017년 조셉 레드먼의 TED 강연(How computers learn to recognize objects instantly, 출처: TED)

그러나 1년 후 그는 자신의 알고리즘이 군대에 의해 중동과 전 세계에서 수천 명의 사람들을 추적하고 살해하는 데 사용되었다는 사실을 발견한 후 경악을 금치 못했다.

이런 사실은 많이 있다. 예를 들어 지난해 이란 핵 과학자가 AI가 조종하는 기관총에 맞아 숨졌으며(Mohsen Fakhrizadeh: ‘Machine-gun with AI’ used to kill Iran scientist, BBC), 올해 8월 아프가니스탄에서는 군용 드론에 민간인이 사망했다(Afghanistan: US admits Kabul drone strike killed civilians, BBC).


삶이 예술을 모방하다

이 드라마는 사람들이 머나먼 미래가 이미 와 있다는 것을 인식했기 때문에 인기를 얻었다. 오징어 게임의 감독은 10년 전에 이미 대본을 썼지만, 그 당시에는 너무 억지스러운 스토리라며 투자를 받지 못했다고 한다. 이제 세상은 다음과 같은 그의 디스토피아적 비전을 따라잡고 그것에 대해 반추하고 있다.

■ 코로나 전염병으로 야기된 경제 침체는 빈익빈 부익부 현상을 가속화했다.
■ AI 연구 개발은 일반적으로 미국의 G-MAFIA(구글, 마이크로소프트, 아마존, 페이스북, IBM, 애플)와 중국의 BAT(바이두, 알리바바, 텐센트)로 불리는 거대 기술 기업이 주도하고 있다.
■ 드라마에서 참가자들은 항상 다수가 찬성하면 게임을 중단할 수 있는 선택권을 가졌다. 참가자들은 그 과정이 민주적이기 때문에 자유가 있다는 착각을 가지고 있었다. 하지만 실제로는 민주주의도 다수가 소수의 권리를 박탈하는 것을 정당화하는 방법으로 전락할 수 있다. 우리는 미국이나 다른 국가에서 영향력 있는 사람이나 소셜 미디어 트롤이 선거를 조작하는 방법을 목격했다. 어찌 보면 자유는 환상이다.
■ 대부분의 비영어권 국가에서는 영어만 사용하면 더 높은 급여와 더 많은 직업 기회를 얻을 수 있다. 오징어 게임의 VIP들이 모두 영어나 중국어를 구사하는 것은 우연이 아니다. 마찬가지로 소프트웨어 및 AI 개발자는 다른 직군보다 더 높은 급여를 받고 있으며 그에 따라 컴퓨터 과학 및 AI는 매우 인기 있는 분야가 되었다.
■ 올해 8월에만 수십만 명의 아프가니스탄 시민들이 임박한 탈레반 장악을 피해 필사적으로 피난을 갔다. 하지만 필자를 포함해 많은 이들은 그러한 상황을 집에서 편안하게 TV로 지켜보았다.

오징어 게임은 기분 좋은 드라마는 아니지만 결말은 많은 생각을 하게 한다. 지금까지 필자는 주로 부자와 권력자가 사람을 관리하고 통제하기 위해 AI와 기술을 사용하는 방법을 설명했다. 하지만 AI 만이 잘못은 아니다. 드라마에서처럼 비뚤어진 마음을 가진 의료 종사자가 장기 적출자로 일하게 될 수도 있다. 절박한 상황은 완벽하게 정상적인 법을 준수하는 시민도 악하게 변할 수 있다는 것을 보여준다.

안타까운 아이러니는 마스크를 쓴 VIP와 직원들도 별로 행복하지 않았다는 점이다. 그들은 삶이 너무 지루했기 때문에 피비린내 나는 게임을 만들었다. 부자는 모든 게임에서 이겼고 손에 넣을 수 있는 모든 돈을 움켜쥐고서야 행복에는 가격표가 없다는 것을 깨달았다. 행복은 판매용이 아니었다.


우리는 어디로 가야 하는가

그럼 우리는 삶의 방향을 어떻게 잡아야 할까? 우리 모두 회사 일을 포기하고 자연에서 안식처를 찾아야 할까? 그렇지 않다. 일부 사람들에게는 올바른 선택일 수 있지만 대다수에게는 그렇지 않다. 게다가 모두가 자연에서 피난처를 찾는다면 똑같이 그 곳에서도 땅 소유 문제가 발생할 수 있을 것이다. 그렇게 되면 아름다운 자연 세계를 자본주의와 같은 세상으로 만들 것이다.

크게 보면 기술의 발전을 저해하지 않으면서 개인 정보의 이용과 접근을 제한하는 규제가 필요하다. 교육과 공정한 취업 기회는 공평한 경쟁의 장을 제공하기 위해 부자와 권력자가 할 수 있는 일이다.

기술과 부는 모든 사람이 사용할 수 있어야 한다. 교육 시스템, 특히 고등 교육 과정의 일부로 윤리를 가르쳐야 한다. 우리의 공학과 과학 교육은 주로 문제를 해결하는 ‘방법’에 중점을 두고 있지만 ‘왜’ 그리고 ‘무엇’이란 질문을 할 수 있도록 해야 한다. 예를 들어, 하버드 및 스탠포드와 같은 선도적인 고등 교육 기관에서는 정규 컴퓨터 과학 과정에서 윤리적 문제에 대해 토론하는 ‘Embedded EthiCS’ 프로그램을 만들었다.

AI가 가진 능력은 모두가 공유해야 한다. 다행히도 코딩할 필요 없이 쉽게 쓸 수 있는 플랫폼들이 많이 나오기 때문에 AI를 하기 위해 박사 학위가 필요하지는 않다. AI의 민주화는 더 이상 헛된 꿈이 아니다. 더 많은 사람들이 AI 개발에 참여할 때 AI의 가면을 알아볼 수 있게 될 것이다.

AI나 기계학습에 관련이 없는 사람들에게 YOLO는 ‘You Only Live Once(한 번 뿐인 인생)’를 의미한다. 축복의 의미로 한 번 뿐인 인생이니 소중히 여겨야 한다. 삶은 소중하다.


정리하면서

오징어 게임은 어떤 모범답안을 제시하기보다는 생각할 여지를 많이 남겨주는 드라마이다. 인성이 상실된 인간에게 AI같이 발달된 기술은 축복이 아닌 더 큰 악이 될 수도 있다는 것도 보여주었다. 이제 AI가 우리가 당면하고 있는 문제에서 우리를 구원해 줄 수 있다는 착각에서 벗어나야 한다. 가면을 쓰고 있는 AI를 보지 못하면 어느새 오징어 게임에 참가하고 있는 우리를 보게 될 것이다. AI가 많은 양의 데이터를 통해 학습을 하듯이 우리도 이미 다가온 AI에 대해서 더 배우고 학습해서 인공지능의 민주화에 참여해야 한다. 어렵고 부담이 되는 일이지만 우리 한 사람 한 사람이 하루하루를 의미 있게 보낸다면 남이 세워놓은 게임의 룰을 벗어나서 진정한 자유와 행복을 누리는 오늘이 될 것이다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지