"챗GPT 보안 위협, 규제·협력 동시에 이뤄져야"

페이지 정보

작성자 마린보이 댓글 0건 조회 2,933회 작성일 23-06-14 09:55

본문

챗GPT 등 생성형 인공지능(AI) 기술을 활용한 사이버 공격과 개인정보 유출 우려가 커지고 있다. 전문가들은 대응 체계를 갖추기 위해 정부의 선제적인 규제와 민·관 협력 생태계 구축이 필요하다고 강조했다.

이상근 고려대학교 정보보호대학원 교수는 13일 과학기술정보통신부가 개최한 '생성형 AI 보안 위협 대응방안 토론회'에서 "생성형 AI에 프로그램 취약점을 이용한 공격코드를 생성해달라고 하면 처음에는 만들어주지 않지만 우회해서 질문하면 공격코드를 만들어주는 것은 물론 공격의 원리까지 설명해준다"고 지적했다.

그는 "심지어 오픈AI의 GPT2 모델 학습에 쓰인 데이터로부터 이름, 전화번호, 이메일 주소, SNS 대화 내역 등 민감한 개인정보 추출이 가능하다는 보고도 있다”고 덧붙였다.

김정희 한국인터넷진흥원(KISA) 미래정책연구실장도 "해킹 기술을 습득하기 위한 진입장벽이 생성형AI 서비스들의 등장으로 크게 낮아졌다"라며 "국내 공공분야 사이버 위협의 74% 이상이 피싱 이메일 공격 형태인데, 챗GPT로 사람보다 더 정교하고 친밀한 피싱 메일을 작성할 수 있다면 피해 규모가 훨씬 커질 것”이라고 우려했다.

기업들도 전문가들의 이같은 지적에 공감하며 대응 방안에 대한 고민을 털어놨다. 박환석 KT 보안기획담당은 "마이크로소프트와 KT 전용의 챗GPT 공간을 활용하는 방안을 논의 중"이라며 "챗GPT가 입력 데이터를 재학습, 재활용하는 것을 거부할 수 있도록 직원들에게 안내하고 있다"고 말했다.

곽규복 LG CNS 보안사업담당 위원도 "기업들은 폐쇄된 환경에서만 챗GPT를 쓸 수 있게 하거나 모니터링 툴을 적용해서 필터링을 거는 식으로 대응하고 있다"고 말했다.

보안 기업에선 생성형 AI를 접목시킨 보안 기술에 대한 적극적 연구가 필요하다고 제언했다. 아울러 민간과 정부의 협력 생태계 구축의 필요성도 강조했다. 정일옥 이글루코퍼레이션 관제기술연구팀장은 "챗GPT는 어떻게 활용하느냐에 따라 사이버 위협이 되기도 하고, 보안을 강화하는 재료가 되는 양날의 검"이라며 "보안 분야에 특화된 sLLM 모델을 만들어 서비스한다면 데이터 유출 걱정없이 활용할 수 있는 구축형 AI를 만들 수 있다. AI 통해 업무를 효율화하고 보안을 강화하는 목표를 이루기 위해서는 산학연 협력이 필요하다"고 말했다.

윤두식 지란지교시큐리티 대표도 "과기정통부뿐만 아니라 경찰, 통신사, 학계 등의 협력을 통해 대응 방안을 만들지 않으면 큰 사고가 터질 것"이라며 "적극적인 고민이 필요하다"고 말했다.

박윤규 과기정통부 2차관은 “챗GPT 등 생성형 인공지능 기술은 우리 일상에 폭넓게 보편적으로 사용될 것인 만큼 보안 위협 우려에 적극적으로 대응해 나갈 필요가 있다”면서 “정부는 생성형 AI 서비스를 국민이 안심하고 이용하도록 안전한 사이버 환경을 조성하는 한편, 갈수록 지능화·고도화하는 사이버위협에 대한 대응역량을 갖추기 위해 최선을 다하겠다”고 말했다.

강나훔 기자 nahum@asiae.co.kr

댓글목록

등록된 댓글이 없습니다.

카테고리

카테고리
 자유게시판
 갤러리
 Q&A
 심리테스트
 kpop잡담방
뉴스
 게임
뉴스
공지사항
출석체크
출석한 사람이 없습니다.
가입인사
포인트게임

전체 포인트 순위

  • 1마린보이20,320
  • 2돼지김밥11,820
  • 3도깨비빤스7,750
  • 4베키아5,960
  • 5랩스몬스터3,030
  • 6벼와쌀을분리3,000
  • 7빨간바지2,850
  • 8건담2,100
  • 9soulKim1,430
  • 10소원을말해봐1,160
nftmonster | NFT몬스터