스티븐 호킹 "전세계 총괄 정부 만들어 인공지능 대재앙 막아야 한다"

-세계적 석학 호킹 박사, 인공지능에 대한 강력한 경고 메세지

2017-08-02     조원영 기자

세계적 석학 스티븐 호킹 박사가 인공지능(AI)의 위험성에 대해 경고했다. 

호킹 박사는 최근 더타임스와의 인터뷰에서 "급성장하는 인공지능을 통제할 수 없는 시점이 다가오고 있다"며 "전세계를 총괄할 수 있는 정부를 만들어 대재앙을 막아야 한다"고 주장했다고 영국 언론들이 보도했다. 

그는 "통제 가능한 지금 AI 기술을 통해 발생할 수 있는 잠재적 위협을 규정하고 이에대한 세부적 지침을 만들어야 한다"며 "가능하면 세계적으로 AI 기술의 사용 용도와 규제에 대한 표준화가 이뤄져야 하며, 신설된 세계정부 기관이 법규를 만드는 게 가장 좋을 것"이라고 설명했다. 

호킹 박사가 인공지능에 대해 경고한 것은 처음이 아니다. 

그는 2015년에도 "AI는 어떤 목표를 달성하는데 최적화 돼 있다"며 "문제는 AI의 목표가 인류의 목표와 부합하지 않을 때 발생한다"고 말한 바 있다. 

호킹 박사는 당시 수력발전소의 예를 들며, 수력발전소를 만들때 물이 차는 지역에 개미집이 있다면, 인류가 악의로 개미를 죽인 것은 아니지만 어쨌거나 개미들을 죽인 것이다. 인류를 홍수가 나는 지역의 개미떼가 되지 않도록 해야한다고 경고했다.