인텔은 20일(현지시간) 미국 캘리포니아 팔로알토에서 열린 ‘핫칩스 2019’ 학회에서 출시를 앞둔 인공지능(AI) 가속기 인텔 ‘너바나’를 공개했다.
이 제품군에는 트레이닝용 프로세서인 NNP-T와 추론용 프로세서인 NNP-I가 포함된다. 데이터를 정보로 바꾸고 지식으로 전환시키기 위해서는 더 복잡한 활용 사례와 인공지능 기술을 발전시키고 지원할 수 있는 하드웨어와 관련 기술이 필요하다.
인텔 너바나 NNP는 AI 전용 가속기로 고객에게 올바른 인텔리전스를 적절한 시기에 제공하기 위해 처음부터 AI에 중점을 두고 구축했다는 게 회사측 설명이다.
인텔 기술진들은 또한 ‘핫칩스 2019’ 학회에서 하이브리드 칩 패키징 기술을 발표했다. 인텔 옵테인 DC 퍼시스턴트 메모리 및 광학 입출력용 칩렛을 소개했다.
나빈 라오(Naveen Rao) 인텔 부사장 겸 AI 제품 그룹의 총괄 매니저는 “미래의 '모든 곳에 인공지능'을 구현하기 위해서는 생성되는 대량의 데이터를 기업에서 효율적으로 처리하고 활용할 수 있도록 지원해야 한다”며 “데이터 센터와 클라우드는 복잡한 인공지능 애플리케이션을 위해 성능이 뛰어나고 확장 가능한 범용 컴퓨팅 및 전문화된 가속이 필요하다”고 강조했다.
이어 “모든 곳에 인공지능이라는 미래의 비전에는 하드웨어에서 소프트웨어, 애플리케이션에 이르는 종합적인 접근 방식이 필요하다”고 전했다.
인텔 측은 너바나 NNP-T(Neural Network Processor)에 대해 “딥러닝 트레이닝의 경계를 확장한다”고 설명했다. 네트워크를 가능한 빨리 훈련시키면서, 주어진 전력 범위 내에서 역항를 수행할 수 있다. 이 딥러닝 트레이닝 프로세서는 유연성을 염두에 두고 구축됐다는 게 회사 측의 설명이다. 컴퓨팅, 통신 및 메모리 간의 균형을 유지한다.
인텔 너바나 NNP-I는 추론을 위해 특수 제작되어 대규모로 딥러닝 구축을 가속화하도록 설계됐다. 주요 데이터 센터 워크로드에 걸쳐 와트 당 업계 최고의 성능을 제공하기 위해 아이스 레이크(Ice Lake) 코어를 이용했다. 인텔의 10나노 공정 기술을 활용한다.
정두용 기자 lycaon@greened.kr