英국가사이버보안센터 "AI 기업업무 연계, 악용 소지 커 위험"
英국가사이버보안센터 "AI 기업업무 연계, 악용 소지 커 위험"
이 기사를 공유합니다

"AI 알고리즘, 보안 문제 남아···LLM 사용 주의해야"
(사진=freepik)

[서울파이낸스 이도경 기자] 인공지능(AI)의 기업 업무를 연계할 경우 악용 소지가 크다는 영국 당국의 지적이 나왔다.

로이터 통신 등 외신에 따르면 영국 국가사이버보안센터(NCSC)는 30일(현지 시간) 공식 블로그를 통해 "대규모 언어모델(LLM)로 불리며 사람의 목소리를 흉내 내는 알고리즘의 보안 문제가 아직 해결되지 않았다"고 전했다.

최근 업계는 AI에 기반한 챗봇이 인터넷 검색 뿐만 아니라 고객 응대 서비스·텔레마케팅까지 대체할 것으로 예측하고, 이를 널리 활용하는 추세다.

NCSC는 AI 챗봇에 잘못된 명령을 내리거나 내부 보안 방화벽을 우회하도록 속이는 방법들이 학계와 연구자들 사이에 계속 발견되고 있어, 이런 사업 모델이 다른 업무와 연결될 경우 위험한 일이 생길 수 있다고 지적했다.

예를 들어 은행에 설치된 AI 기반 챗봇이 거래 승인 여부를 물을 때 해커가 잘못된 신호를 입력할 경우 승인되지 않은 거래가 이뤄질 가능성이 있다.

NCSC는 "LLM 서비스를 구축하려는 조직은 베타 버전 제품이나 코드 라이브러리를 사용할 때처럼 주의해야 한다"며 "베타 버전 제품이 고객 대신 거래하지 못하도록 관리하고, 그 제품을 전적으로 신뢰하지 않는 것처럼 LLM에도 그런 주의가 필요하다"고 경고했다.

각국 관계 당국은 최근 개방형 AI를 활용한 챗GPT 등 LLM이 등장해 기업들이 이를 판매와 고객 관리를 포함한 광범위한 서비스에 활용하는 데 대해 신경을 곤두세우고 있다.

로이터는 각국이 AI가 보안에 미치는 영향에 대해서도 계속 주목하고 있고, 미국과 캐나다의 경우 해커들이 이 기술을 적극 수용하는 것으로 보고 있다고 전했다.

최근 로이터와 입소스가 공동으로 실시한 여론 조사에 따르면 많은 회사원이 챗GPT와 같은 도구를 사용해 이메일 초안 작성이나 문서 요약, 예비 조사와 같은 기본적인 업무에 활용하고 있는 것으로 나타났다.

설문에 응한 사람 중 약 10%는 직장 상사가 외부 AI 도구를 사용하지 못하도록 했다고 답했지만, 응답자의 4분의 1은 회사가 AI 기술 활용을 허용했는지조차 모른다고 대답했다.

사이버 보안 회사인 리버세이프는 기업인들이 AI 기반 도구의 위험성을 제대로 점검하지 않는다면, 이를 일상 업무에 통합하려는 경쟁이 자칫 '재앙적 결과'를 초래할 수 있다고 경고했다.

리버세이프는 "고위 경영진은 최신 AI 트렌드를 무턱대고 수용하기 전에 심사숙고해야 한다"며, "AI의 이점과 위험을 평가해 조직이 위험에 빠지지 않도록 필요한 사이버 보안 조치도 함께 강구해야 한다"고 말했다.



이 시간 주요 뉴스
댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.