top of page

피싱 이메일 AI 모델 악용, 국정원 '챗GPT 등 생성형 AI 활용 보안가이드라인' 배포


국가정보원/국가보안기술연구소 챗GPT 등 생성형 AI 활용 보안 가이드라인 배포
국가정보원/국가보안기술연구소 챗GPT 등 생성형 AI 활용 보안 가이드라인 배포

# AI 모델 적대적 시스템 메시지 악용, 피싱 이메일 및 말투 도용


# AI 모델은 사용자가 제공하는 텍스트 스타일을 흉내 내는 데 매우 효과적이며, 이를 통해 피싱 이메일을 생성하거나, 특정 개인이나 단체의 말투를 도용하는 데 악용될 수 있다.


AI 모델은 사실적이고 믿기 쉬운 콘텐츠를 생성한다. 이는 피싱 이메일을 더욱 쉽게 만들고 사람들이 피해자가 될 위험성을 증가시킨다.

국가정보원은 29일 챗GPT 관련 보안 문제를 사전에 예방하기 위해 마련한 '챗GPT 등 생성형 AI 활용 보안 가이드라인'을 공개했다.


국정원은 생성형 AI기술 활용 과정에서 △업무상 비밀ㆍ개인정보 유출 △가짜뉴스ㆍ비윤리적 자료 생성 등 기술 악용 우려가 제기되자, 지난 4월 국가보안기술연구소와 학계 전문가들과 함께 이번 보안 가이드라인 제정에 착수하고, 지난 9일 「국가 사이버안보 민관 협의체 회의」를 열고 관련 분야 산ㆍ학ㆍ연 전문가 의견도 청취했다.


이번 보안 가이드라인은 생성형 AI기술 서비스 접속부터 질의, 결과물 활용 등 과정 전반에서 지켜야 할 보안 지침을 단계별로 안내하고 생성형 AI기술과 관련한 △개요 및 해외동향(챗GPT 사례 중심) △보안위협 사례 △기술 사용 가이드라인 △국가ㆍ공공기관의 정보화사업 구축 방안 및 보안대책 등이 담겼다.


국정원은 생성형 AI 기술을 안전하게 이용하기 위한 필수 보안수칙으로 △비공개ㆍ개인정보 등 민감 정보 입력 금지 △생성물에 대한 정확성ㆍ윤리성ㆍ적합성 등 재검증 △생성물 활용시 지적 재산권ㆍ저작권 등 법률 침해ㆍ위반여부 확인 △연계ㆍ확장프로그램 사용시 보안 취약여부 등 안전성 확인 △로그인 계정에 대한 보안설정 강화 등을 제시했다.


국정원은 국가 공공기관과 지자체 외에 교육부와 협조해 이번 보안 가이드라인을 국내 420여개 국ㆍ공ㆍ사립대학 등에 배포할 계획이다. 현재 생성형 AI가 대학 등 일선 연구ㆍ교육현장에서 적극 활용되고 있지만, 명확한 보안대책이 없는 실정이었기 때문이다.


국정원 관계자는 “보안 가이드라인 준수를 통한 보안사고 없는 적극적인 AI기술 활용을 기대한다”며 “공공분야를 비롯한 대한민국 전역에서 AI 등 IT 신기술이 안전하게 사용될 수 있도록, 지속적으로 노력할 것”이라고 밝혔다.


'챗GPT 등 생성형 AI 활용 보안 가이드라인'은 국정원 국가사이버보안센터 홈페이지 (ncsc.go.kr) 자료실에서 다운로드 받을 수 있다.

Comments


Commenting has been turned off.
bottom of page