[앵커]
생성형 AI 이용이 확산하면서 해킹 수법도 빠르게 진화하고 있습니다.
특히, 초보자도 AI로 쉽게 해킹 프로그램을 개발할 우려가 커지면서 범죄 악용을 막기 위한 제도적·기술적 대응이 절실한 상황입니다.
권석화 기자가 보도합니다.
[기자]
연구팀이 생성형 AI에 악성코드 샘플을 주고, 안드로이드 백신이 탐지하지 못하는 버전으로 만들어 달라고 요청했습니다.
그러자 AI가 얼마간 최적화 작업을 거쳐 변종 악성코드를 생성해줍니다.
이 같은 사실이 알려지자 개발팀은 부랴부랴 해당 기능을 제어하도록 업데이트했지만, 범죄 악용 우려는 여전합니다.
[김 휘 강 / 고려대 스마트보안학부 학부장]
"AI가 등장함에 따라서 마치 개발자가 코파일럿 AI를 써서 손쉽게 개발할 수 있게 됐듯이 이제는 초보 해커도 AI의 도움을 받아서 과거에는 못 했던 해킹들을 자유롭게 할 수 있습니다."
[기자]
생성형 AI 이용이 확산하면서, 이를 악용한 디지털 범죄 우려도 커지고 있습니다.
과거에는 전문 지식이 있어야 가능했던 해킹 공격이나 프로그램 개발도 이제는 일반인이 AI 프롬프트를 활용해 시도할 수 있게 됐습니다.
더 나아가 최근에는 인공지능 자체의 오작동을 유발하는 해킹 공격도 증가하고 있습니다.
이에 따라 '챗GPT'와 구글 '제미나이' 등은 새 버전을 통해 방어 장치를 강화했는데, 전문가들은 여전히 악성코드 제작 등 직접적인 요구를 우회하는 교묘한 명령은 걸러지지 않고 있다고 지적합니다.
[염 흥 열 / 순천향대 정보보호학과 교수]
"AI와 AI의 공격과 수비를 위한 경쟁이 시작됐다고 그렇게 볼 수 있습니다. / 해커들은 통제 시스템을 우회해서 개인정보를 이렇게 유출하려고 시도하는 공격들이 현재 진행되고 있습니다."
[기자]
이에 따라 국제 표준 ISO/IEC 42001과 같이 기업이 AI를 책임감 있게 개발하고 활용하도록 하는 관리체계를 의무적으로 도입해야 한다는 목소리가 커지고 있습니다.
또, '챗GPT' 같은 거대언어모델에만 의존할 게 아니라 기업이 자체적으로 보안을 강화한, 이른바 소규모 언어 모델도 적극적으로 구축·운영해야 한다는 의견도 나오고 있습니다.
우리 일상에 유용한 도구로 이용되고 있는 AI 기술이 이제는 정보 보안의 새로운 위협이 될 가능성이 커지면서 이에 대한 체계적인 대책 마련이 시급해 보입니다.
YTN 사이언스 권석화입니다.
YTN 사이언스 권석화 (stoneflower@ytn.co.kr)
[저작권자(c) YTN science 무단전재, 재배포 및 AI 데이터 활용 금지]