팔로알토 네트웍스 아태지역 총괄 CSO 션 두카(Sean Duca) 부사장

팔로알토 네트웍스 아태지역 총괄 CSO 션 두카(Sean Duca) 부사장
팔로알토 네트웍스 아태지역 총괄 CSO 션 두카(Sean Duca) 부사장

[아이티데일리] 과학과 기술, 그리고 이를 구성하는 갖가지 요소들은 여러 세대에 걸쳐 인류에 강력한 혜택을 제공해왔다. 의미상으로는 새로운 지식을 추구한다는 것이기 때문에 부정적인 면을 찾기 어렵다. 하지만 기술의 이면에 누가 있는지에 따라 더 나은 방향이 될지, 혹은 더 나쁜 방향이 될지 달라질 수 있다.

인간의 마음을 모방하고 해독하려는 끊임없는 탐구를 통해 인공지능의 시대가 열리고 있다. 텍스트 기반 AI봇인 챗GPT(ChatGPT)는 고급 AI를 선보이며 화제가 되고 있는 최신 툴이다. 코딩 버그를 정확하게 수정하고, 요리 레시피를 생성하고, 3D 애니메이션을 제작하고, 노래를 작곡하는 등 AI의 놀라운 능력을 여과 없이 보여주고 있다.

그러나 AI는 언제나 양날의 검으로 다뤄져 왔다. 수년간 전 세계가 AI에 대해 다양한 방면의 추측을 해온 데 이어 최근에는 수면 위로 떠오르는 중이다. 이제 인간이 최소한으로 간섭하는 선에서 대량의 사이버 보안 인시던트를 처리하는 AI 기반 보안 도구와 제품들이 등장하고 있다. 그러나 아마추어 해커들 또한 동일한 기술을 활용해 지능형 악성 프로그램을 개발하고 스텔스 공격을 실행하는 데 이르렀다.


새로운 챗봇의 문제점은?

지난해 챗GPT가 출시된 이후 전 세계 기술 전문가들은 AI 생성 콘텐츠 도구가 특히 사이버 보안에 미칠 영향에 대해 우려해왔다. 인공지능 소프트웨어가 사이버 범죄를 대중화하는 것도 가능한 것일까?

라스베이거스에서 열린 대규모 보안 행사 블랙햇과 데프콘에서 싱가포르 정부 기술청은 AI가 어떻게 인간보다 더 나은 피싱 이메일을 생성하고, 날카롭게 적중 가능한 스피어 피싱 메시지를 만들어낼 수 있는지 보여줬다.

오픈AI의 GPT-3 플랫폼을 사용한 연구원들은 성격 분석에 초점을 맞춘 다른 서비스형 AI 제품과 결합해 팀 동료의 배경과 성격에 맞는 피싱 이메일을 생성했다. 이들은 목표물에 도달하기 이전에 이메일을 다듬어 손질하는 파이프라인을 개발했고, 놀랍게도 이 플랫폼은 또한 싱가포르 사람들을 위한 콘텐츠를 생성하라는 지시를 받았을 때 싱가포르 법을 언급하는 등의 세부 사항을 자동으로 제공하기도 했다.

챗GPT의 제작자들은 AI 기반 도구가 잘못된 전제에 이의를 제기하고 부적절한 요청을 거부할 수 있는 능력을 갖고 있다고 주장한다. 이 시스템은 범죄 행위를 방지하기 위해 설계된 가드레일을 내장한 것으로 보이지만, 몇 번의 조작으로 거의 흠잡을 데 없는 피싱 이메일을 생성했고, 흡사 ‘섬뜩한 인간’으로 느껴지는 이유가 여기에 있다.


어떻게 극복할 것인가?

한국인터넷진흥원(KISA)에 접수된 랜섬웨어 피해 신고 건수는 2018년 22건에서 2022년 325건으로 14배 증가했다. 다크웹을 통해 단돈 10달러 미만의 도구를 사용할 수 있는 상황에서 서비스 방식의 랜섬웨어 모델이 확산되고, 챗GPT와 같은 AI 기반 도구가 등장하면 사이버 범죄의 진입 장벽이 낮아지기 때문에 이러한 추세는 더욱 거세질 것으로 전망된다.

점점 더 스마트하고 기술적으로 발전된 해킹 환경으로 인해 위협이 고조되고 있음을 고려해 사이버 보안 산업에서도 이러한 AI 기반 공격에 맞서 싸우기 위해 동등한 자원을 확보해야 한다. 장기적으로 볼 때, 인간이 추측에 기대어 산발적으로 이 무수한 위협을 직접 잡아내는 방식에서 업계의 비전을 찾기는 어렵다.

진화하는 위협을 무력화하기 위해 지능적인 조치를 취해야 할 때가 왔다. 긍정적인 측면을 살펴보면, 오늘날의 자율 대응 기술은 사람의 개입 없이도 위협을 상당 부분 해결하고 있다. 그러나 AI 기반 공격이 일상의 일부가 되면서 이러한 자동화된 멀웨어의 영향을 받는 기업, 정부, 개인은 자체적으로 자동화된 대응을 생성하기 위해 AI 및 ML과 같은 새로운 기술에 점점 더 많이 의존해야 하는 상황이다.


윤리적으로 책임감 있게 AI 툴을 사용하기 위해서는

기업은 기술적 복잡성부터 인적 요소에 이르기까지 AI 사이버 보안 환경을 탐색하는 데 있어 여러 가지 어려움에 직면해 있다. 특히 기계, 인간, 윤리적 고려 사항 간의 균형에 상당한 관심이 집중되고 있다.

윤리적으로 비즈니스를 수행하는 동시에 사이버 보안을 개선하려면 기업 정책을 수립하는 것이 중요하다. 효과적인 거버넌스와 법적 프레임워크를 구축해 인간을 둘러싼 AI 기술이 안전하게, 신뢰할 수 있는 방식으로 정의롭고 지속가능한 세계에 기여할 수 있도록 해야 한다. AI와 인간 사이의 섬세한 균형을 찾는 것이 성공적인 사이버 보안, 즉 신뢰, 투명성, 책임감이 기계의 이점을 보완하는 데 있어 핵심 요소로 부상할 것이다.

저작권자 © 아이티데일리 무단전재 및 재배포 금지