삼성·SK, 메모리 반등 기회로 ‘챗GPT’ 주목...“스마트폰 이어 제2의 ‘IT 혁명’ 불씨”
상태바
삼성·SK, 메모리 반등 기회로 ‘챗GPT’ 주목...“스마트폰 이어 제2의 ‘IT 혁명’ 불씨”
  • 고명훈 기자
  • 승인 2023.02.01 19:30
  • 댓글 0
이 기사를 공유합니다

-자연어 기반 대화형 AI, 대중 서비스로 진화하며 반도체산업 파급효과 기대
-삼성전자 “메모리 수요에 긍정 요소, 고성능·고용량 제품 개발 확대할 것”
-SK하이닉스 “D램 128GB 고용량, 낸드 QLC SSD 개화 시점 앞당길 것”
[사진=픽사베이]
[사진=픽사베이]

삼성전자와 SK하이닉스가 메모리 반도체 시장의 반등 기회로 나란히 ‘챗GPT’를 지목했다.

챗GPT는 인공지능(AI)이 사용자와 대화할 때 사람처럼 자연스럽게 질문에 답하는 챗봇이다. 삼성과 SK는 AI가 본격 대중 서비스로 진화했다는 점에 주목하고 있다.

AI 서비스가 확장할수록 이를 뒷받침할 고용량·고성능 메모리 반도체 수요가 급증할 것이기 때문이다. 지난 2007년 애플의 최초 아이폰 공개와 함께 스마트폰 시대가 도래했던 때와 같은 맥락이다.

1일 녹색경제신문의 취재에 따르면 삼성전자와 SK하이닉스는 메모리 최대 불황기 속 이번 실적을 발표하는 컨퍼런스콜에서 ‘챗GPT 시대’를 중점으로 한 긍정적인 시장 전망을 언급하며 분위기를 환기했다. 이와 관련한 각 자사의 핵심 제품 전략도 소개했다.

삼성전자가 개발한 12나노급 16Gb DDR5 D램. [사진=삼성전자]
삼성전자가 개발한 12나노급 16Gb DDR5 D램. [사진=삼성전자]

먼저, 삼성전자는 전날 진행된 지난해 4분기 실적 컨퍼런스콜에서 “(챗GPT를 필두로 한) 자연어 기반 대화형 AI 서비스가 미래 메모리 수요에 긍정 요소라고 기대한다”라며, “특히, 이런 서비스 출시는 대규모 언어 모델이 상용화됐다는 점에서 큰 의미가 있다고 생각한다”라고 밝혔다.

그러면서 “AI 기술에 기반한 이런 모델의 학습과 추론을 위해서는 대량연산이 가능한 고성능 프로세서와 함께 이를 지원하는 고용량 메모리의 조합이 필수”라며, “이에 대규모 언어 모델 AI 기반 서비스가 확장됨에 따라 하드웨어 수요도 증가할 것”이라고 설명했다.

회사측은 “그래픽처리장치(GPU)와 AI 액셀러레이터에 직접 데이터를 제공하는 고성능 HBM과 AI 학습 데이터 처리를 위해서 이를 지원하는 중앙처리장치(CPU)의 양, 128GB 이상 고용량 서버 D램의 장기적 수요 증가를 기대하고 있다”라며, “당사는 시장이 요구하는 고성능 고용량 메모리 개발을 통해 AI 서비스 관련 수요 증가세에 적극 대응할 예정”이라고 강조했다.

삼성은 최근 AI 응용처에 적합한 12나노급 공정 기반의 16Gb(기가비트) DDR5 D램을 개발하고 AMD와 함께 호환성 검증을 마쳤다. 유전율(K)이 높은 신소재를 적용해 전하를 저장하는 커패시터(Capacitor)의 용량을 높이고, 새로운 설계를 통해 회로 특성을 개선한 점이 특징이다.

앞서 네이버와 AI 반도체 솔루션 개발을 위해 협력 관계를 맺기도 했다. AI 시스템의 데이터 병목을 해결하고 전력 효율을 극대화할 수 있는 새로운 반도체 솔루션을 개발하겠다는 방침이다.

SK하이닉스가 양산한 HBM3 D램. [사진=SK하이닉스]
SK하이닉스가 양산한 HBM3 D램. [사진=SK하이닉스]

SK하이닉스도 챗GPT 시대에 대비하기 위한 고성능 D램 및 컴퓨테이셔널 스토리지 디바이스의 필요성을 강조했다.

SK하이닉스는 이날 자사의 지난해 4분기 실적을 발표하는 컨퍼런스콜에서 “챗GPT와 관련해 많이 회자되고 있는 건 결국 AI 관련 내용”이라며, “언어모델 확장성, 대중을 상대로 한 AI 활용의 일반화 및 상용화라는 데서 파급성이 크다는 의미”라고 시사했다.

그러면서 “이처럼 제너러티브 AI 기술과 웹 검색 엔진의 결합은 메모리뿐만 아니라 업계 전반에 걸쳐 활용 확장 가능성이 매우 크다고 본다”라며, “학습과 추론을 위한 서버 인프라 투자 확대가 수반돼야만 한다. 메모리 관점에서는 중요한 게 속도와 용량인데, 특히 속도가 핵심으로, 이를 지원하기 위해 병렬 처리를 위한 고성능 D램 및 고성능 컴퓨테이셔널 스토리지 디바이스 필요하게 될 것”이라고 설명했다.

SK하이닉스는 지난해부터 고대역폭으로 AI 및 빅데이터 처리 속도를 높인 4세대 HBM ‘HBM3’를 양산하고, 엔비디아의 AI 기반 첨단기술 분야에 공급 중이다. 이와 함께 특정 연산에서 높은 속도를 내는 차세대 지능형 메모리 반도체 PIM 개발도 가속하고 있다.

SK하이닉스는 “(챗GPT 상용화로) 기존 서버 메모리 중에서 128GB급 이상의 모듈 수요가 빠르게 성장하고, 64GB에서 128GB로 넘어가는 시점도 당길 수 있다고 생각한다”라며, “낸드 관점에서는 기존 저장매체보다 더 빠르고 강력한 성능의 컴퓨팅 파워를 지원해야 하기 때문에, QLC(쿼드 레벨 셀) 기반 병렬처리용 SSD를 빠르게 개화시키는 매개체가 될 수 있을 것”이라고 부연했다.

고명훈 기자  lycaon@greened.kr

▶ 기사제보 : pol@greened.kr(기사화될 경우 소정의 원고료를 드립니다)
▶ 녹색경제신문 '홈페이지' / '페이스북 친구추가'

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.