“AI의 취약점은 결국 ‘사람’…AI 위협은 AI로 막아야”

529
왼쪽부터 조규곤 파수 대표, 최일훈 소만사 사장, 윤두식 지란지교시큐리티 대표가 머니투데이 회의실에서 AI리터러시 대담에 참가하고 있다.  /사진=김휘선 기자 hwijpg@
왼쪽부터 조규곤 파수 대표, 최일훈 소만사 사장, 윤두식 지란지교시큐리티 대표가 머니투데이 회의실에서 AI리터러시 대담에 참가하고 있다. /사진=김휘선 기자 hwijpg@

생성형 AI(인공지능)가 빠르게 우리 사회에 확산되는 그 위험성을 지적하는 목소리도 크다. 당장 사이버 보안분야가 대표적인데 이미 가족이나 지인의 목소리는 물론 심지어 얼굴까지 복제하는 딥페이크를 통해 보이스피싱 등 범죄에 악용하는 사례가 보고되고 있다. 아울러 강력한 코딩생성 기술로 해킹 프로그램을 양산하거나 사람의 심리를 이용하는 소셜엔지니어링 등에 까지 AI가 접목되면서 사이버 침해사고가 폭증할 것이라는 우려가 나온다. 생성AI의 등장으로 해킹기법이 새로운 차원으로 진화하고 판도라의 상자가 열렸다는 평가까지 나온다.

이에대해 보안 전문가들은 AI의 고도화로 우리 사회가 그간 접하지 못한 혼란을 겪는 것은 불가피한 일이라고 말한다. 다만 그렇다 하더라도 정부가 AI에대한 규제 일변도의 접근법을 취하는 것은 바람직하지 못하다고 입을 모은다. AI기술 및 관련 서비스 개발은 풀어주되 AI의 부작용 저감이라는 두 가지 목표를 동시에 추구해 나갈 수밖에 없다는 지적이다. AI의 본질과 한계를 이해하고 AI를 통한 해킹기법에대한 대응기술을 충분히 연구해 대응해야한다는 것이다.

머니투데이는 조규곤 파수 대표, 윤두식 지란지교시큐리티 대표(한국정보보호산업협회 부회장), 최일훈 소만사 사장 등 국내 보안업계 리더들을 만나 AI가 초래할 수 있는 사이버 보안상 위협 요인을 점검하고 AI와 공존을 위한 방안을 모색해봤다.

취약요소는 ‘사람’…”시스템보다 사람 속이기 더 쉽다”

조규곤 파수 대표 /사진=김휘선 기자 hwijpg@
조규곤 파수 대표 /사진=김휘선 기자 hwijpg@

– 생성형 AI에 대한 기대만큼 공포도 커지고 있다. 생성형 AI로 인한 위험요인은 뭔가.
▶조규곤 대표(이하 조 대표) : 해커들의 손에 AI가 들어가면 나쁜 의도를 가지고 진짜 악성코드를 만들 수 있다. 해커들이 이용자들의 크레덴셜(신원)을 해킹해서 활용할 수 있다는 우려도 크다. 무엇보다도 생성형 AI엔진에 이용자들이 무분별하게 회사 기밀들을 입력할 때 다른 이용자들에게 해당 기밀내용들이 답변으로 제시될 수 있다는 점도 문제로 부각된다.

▶윤두식 대표(이하 윤 대표) : 공격자는 수신자용·송신자용 연락처를 다 가지고 중간에서 양쪽을 속여서 피해를 입힌다. 피싱메일이나 딥보이스, 딥페이크 등 AI를 이용한 사기도 훨씬 고도화될 수 있다. 심지어 국내 대기업들도 피싱메일에 당했다. 생성AI는 속이기 쉬운 형태의 피싱메일을 훨씬 더 잘 생성할 수 있다. 3초의 음성파일만 있으면 목소리의 톤과 스타일을 그대로 복제해 다른 사람인 것처럼 흉내낼 수 있다. 공격이 훨씬 정교해지는 셈이다.

– 국내외 주요 기업들이 챗GPT 등의 AI 사용을 막는 경우도 있다.
▶최일훈 사장(이하 최 사장) : 이용자들이 챗GPT에 프롬프트(명령어) 형태로 넣은 내용을 다시 다른 이용자들에게 답변 형태로 제공하는게 가장 두려운 점이다. 이 때문에 기관·기업 등이 비밀정보 유출을 우려해 생성형 AI 사용을 금지한 것이다. 또 AI 사업자의 의도를 순수하게만 볼 수 있을지에 대해서도 우려가 있다. 예컨대 MS(마이크로소프트)나 구글이 각각 챗GPT, 바드를 이용하는 삼성전자 임직원들의 질문들만 따로 모아서 모니터링할 가능성도 있다.

▶윤 대표 : 기업의 사무실·공장에서 직원들이 챗GPT 등에 접속을 막는 것으로 충분하지 않다. 퇴근 후 집에서, 이동 중에 생성형 AI를 쓰는 것은 막기가 불가능하다. 더욱이 챗GPT를 활용한 플러그인 프로그램만 해도 엄청 많다. 그 중 해커가 악성 플러그인 프로그램을 심어두는 데 성공할 경우 어떤 기업의 직원이 이 플러그인을 설치하는 것만으로 개인과 기업의 정보까지도 한꺼번에 털릴 수 있다.

– 사람이 가장 취약하다는 얘기인가.
▶조 대표 : 요즘 공격의 패턴은 다 피싱메일로 시작한다. 사람을 속여서 일단 뭔가를 끄집어낸 후 거기서부터 공격을 하는 것이다. 그간 일상적으로 주고받는 업무용 메일은 보안의 대상이 아니라고 여겨져 왔지만 이 메일이 해커의 손에 들어가면 그럴싸한, 속을 수밖에 없는 피싱메일이 만들어질 수 있게 된다. 기업들도 다른 수준의 보안장치를 마련해야 한다.

▶최 사장 : 국민 인식제고가 필요하다. 과거에는 전화로 걸려 오는 피싱전화에 많이 당했다. 하지만 이제는 이런 피싱유형 등에 대한 경각심이 높아지며 피해사례가 많이 줄었다. 아예 아는 전화번호만 받는 사람도 있다. 생성형 AI 시대에서도 이같은 적응과정이 있을 것이다.

▶윤 대표 : AI 시대에서도 시스템 공격이 많이 발생하겠지만 사람의 헛점을 노리는 사회공학(소셜엔지니어링)을 활용한 공격 사례가 훨씬 많아질 것이다.

윤두식 지란지교시큐리티 대표 /사진=김휘선 기자 hwijpg@
윤두식 지란지교시큐리티 대표 /사진=김휘선 기자 hwijpg@

– 북한·중국 등 국가배후 해커조직의 공격도 AI로 더 고도화될 수 있겠다.
▶조 대표 : 해킹만큼 비용 효율적인 공격수단이 없기 때문이다. 공격의 흔적도 남지 않는 데다 피해자도 공격을 받았는지 자체를 모르는 경우도 많다. 발각이 되더라도 공격자가 우길 수도 있다. 거의 전력을 다해서 (북한·중국 등 해커들이) 해킹을 하고 있다고 봐야 한다. 해킹이라고까지 하기는 뭣하지만 생성형 AI를 써서 사람들이 관심을 가질 만한 콘텐츠로 채운 사이트를 만들고 여기에 광고를 붙여서 광고수익을 버는 방식도 가능해진다. 지금도 남의 저작권을 침해해 베낀 콘텐츠로만 운영되는 사이트는 많다.

▶윤 대표 : 블록체인 프로젝트와 AI를 결합한 비즈니스가 북한 등 해커조직의 주요 기법이 될 가능성이 높다. 생성형 AI를 이용하면 블록체인 기반 스마트 컨트랙트(계약조건 충족시 프로그램에 따라 자동으로 계약을 실행시키는 것)를 무척 쉽게 만들 수 있다. 여기에 생성형 AI가 트위터, 페이스북 등 SNS(사회관계망서비스)를 통해 해당 프로젝트가 매우 매력적으로 보이도록 사람들을 끌어들일 수 있다. 그렇게 돈을 한번에 끌어모아서 돈만 받고 튀는 형태의 사기가 하루에 수백개가 아닌, 몇천 개씩도 가능해질 수 있다.

“결국 기술로 대응해야, 정부·공공의 시장창출 노력 필요”

– 해킹·피싱사기 등 부작용 우려가 이렇게 큰데 초거대·생성형 AI 개발 기업의 책임은 없을까?
▶조 대표 : AI 엔진을 개발하는 회사들끼리도 논쟁이 있다. AI가 위험하니까 더 보완한 뒤에 오픈해야 하는지 여부다. 문제는 해당 AI엔진이 어떤 콘텐츠와 답을 내놓을지에 대해 AI엔진을 만드는 사람도 잘 모른다는 점이다. 프롬프트를 어떻게 넣느냐에 따라 답이 달라지는데 이걸 회사가 책임져야 하는지에 대한 의문이다.

▶최 사장 : 국내에서도 주요 대기업들이 곧 AI엔진을 공개하는데 나쁜 의도의 프롬프트를 막는 조치를 취하느라 늦어진다고 하는 얘기가 있다. 그만큼 AI 개발사들의 입장에서도 고민이 클 수밖에 없다.

최일훈 소만사 사장  /사진=김휘선 기자 hwijpg@
최일훈 소만사 사장 /사진=김휘선 기자 hwijpg@

– 악의적으로 생성형 AI를 쓰면 가중처벌하는 조치가 필요할까?
▶조 대표 : 현실적으로 쉽지 않다. 이미 생성형AI 엔진은 숱하게 나와 있고 이용자들도 여러 엔진을 섞어가며 쓴다. 그렇게 해서 나온 산출물에 대한 책임은 누구에게 있다고 봐야할까. 결국은 악용하는 사람에게 책임을 물어야 한다.

▶윤 대표 : 챗GPT나 MS의 빙과 같은 프로그램은 사람이 위험한 프롬프트를 날리면 필터링하도록 설계돼 있다. 그럼에도 모든 프롬프트를 다 필터링 못하는 게 한계다. 여전히 인젝션(AI서비스 지침을 우회해서 본래의 목적 이외의 답변을 이끌어내려는 시도를 지속하는 것)이나 탈옥(Jail Breaking, AI의 기존 규칙에서 벗어나도록 코딩이나 학습을 통해 교란시키는 것) 등이 활개를 치는 게 대표적 사례다.

– AI와의 공존을 위해 필요한 제도가 있을까?
▶윤 대표 : AI는 실제 써보지 않으면 무엇이 위험한지 아닌지를 알 수 없다. 그러나 정부와 기업들에서 일단 쓰지 말자고 하면 겉도는 정책이 나올 수밖에 없다. 챗GPT만 해도 API(응용 프로그래밍 인터페이스)로 구동되는 서비스가 몇 만개에 이른다. 이걸 어떻게 다 막을 수 있나.

미국 NIST(국립표준기술연구소)는 ‘AI 리스크관리 프레임워크’를 내놓고 기업·기관에서 AI를 활용하면서 발생하는 문제를 지속 모니터링하도록 한다. ‘위험하니까 막아야 한다’는 방식은 글로벌 기업들만 치고 나가고 우리 기업들은 뒤쳐지게 만든다. 결국 AI를 써야 한다. AI의 공격을 판별하는 AI 프로그램이 있어야 한다는 얘기다.

▶조 대표 : 위험성을 줄이기 위한 대응책은 있어야 한다. 그러나 정부가 R&D(연구개발) 등 방식으로 대응하려면 늦다. 대응책은 기업들이 빠르게 잘 만든다. 기업들이 적극적으로 나서면 AI를 통해 보안 솔루션을 고도화하는 제품이 나오기까지는 오래 걸리지 않는다.

기업들이 만든 솔루션을 정부가 적극 구매해서 사용해주는 등 투자를 아끼지 않았으면 한다. 미국이 R&D가 잘 되는 이유는 국방부 등 공공기관에서 민간 솔루션을 적극 구매해주는 등 초기 시장이 잘 형성되도록 해주기 때문이다. 다만 국내에서는 신제품에 대한 인증에 시간이 오래 걸리는 데다 공공 구매 담당자들은 신제품에 대한 모든 것이 검증된 후에 맨 마지막에서야 나서는 등 아쉬움이 있다.

왼쪽부터 조규곤 파수 대표, 최일훈 소만사 사장, 윤두식 지란지교시큐리티 대표가 머니투데이 회의실에서 AI리터러시 대담에 참가하고 있다.  /사진=김휘선 기자 hwijpg@
왼쪽부터 조규곤 파수 대표, 최일훈 소만사 사장, 윤두식 지란지교시큐리티 대표가 머니투데이 회의실에서 AI리터러시 대담에 참가하고 있다. /사진=김휘선 기자 hwijpg@
+1
0
+1
0
+1
0
+1
0
+1
0