구글, 무기 개발 관련 윤리 가이드라인 마련 中... AI 사용 금지 포함
상태바
구글, 무기 개발 관련 윤리 가이드라인 마련 中... AI 사용 금지 포함
  • 김민주 기자
  • 승인 2018.05.31 16:07
  • 댓글 0
이 기사를 공유합니다

구글이 무기 개발에 대한 윤리적 가이드라인을 마련하고 AI 기술 사용을 금지할 예정이다.

美 매체 씨넷(CNET)은 30일(현지시간) 구글이 군대와의 계약과 관련해 윤리적 가이드라인을 만들고 있다고 보도했다. 새로운 가이드라인은 무기 개발에 AI 기술을 사용하는 것을 금지하는 내용을 담을 것으로 알려졌으며, 몇 주 안에 공식적으로 발표될 예정이다.

구글이 미군의 무기 시스템 개발에 협력하는 것에 대해 직원들의 반발이 줄어들지 않자 AI 기술 사용 금지라는 특단의 조치를 내린 것으로 보인다.

구글은 지난해 4월부터 미군과 함께 인공지능 무기 시스템을 개발하는 사업인 프로젝트 메이븐(Project Maven)을 진행해왔다. 이 프로젝트는 AI를 이용해 무인항공기(드론)이 촬영한 이미지를 분석하고, 이를 통해 타격력을 향상하는 것을 내용으로 하고 있다.

관련 소식이 알려지자 구글 내 구성원의 반발이 이어졌다. 임직원 약 4000명이 구글이 전쟁 사업에 뛰어드는 것을 반대하는 서명에 참여했으며, 지난달에는 AI 연구원 12명이 단체로 사임하기도 했다. 구글은 반발을 잠재우기 위해 내부 토론회를 열어 공격이 아닌 정보 인식을 목적으로 AI가 쓰이는 것이라고 해명했다. 그러나 직원들은 공격용으로 변경하는 것이 어렵지 않기 때문에 구글의 이런 입장을 받아들이기 어렵다고 주장해왔다.

한편, 미군과 협력하고 있는 IT 회사에는 구글뿐만 아니라 아마존, 마이크로소프트 등이 있는 것으로 알려졌다. 현재 아마존은 국방부에 이미지 인식 기술을, 마이크로소프트는 군대 및 국방부에 클라우드 서비스를 제공하고 있다.

김민주 기자  lycaon@greened.kr

▶ 기사제보 : pol@greened.kr(기사화될 경우 소정의 원고료를 드립니다)
▶ 녹색경제신문 '홈페이지' / '페이스북 친구추가'

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.