엔비디아, 실시간 대화형 AI 지원하는 언어이해 기술 발표

엔비디아(www.nvidia.co.kr, CEO 젠슨 황)는 실시간 대화형 인공지능(AI)을 통해 기업이 고객과 보다 자연스럽게 소통할 수 있는 언어이해 모델을 발표했다.

엔비디아의 AI 플랫폼은 최첨단 AI 언어모델 중 하나인 버트(Bidirectional Encoder Representations from Transformers, 이하 BERT)를 한 시간 내에 훈련시키고, 2밀리세컨드(ms) 만에 AI 인퍼런스를 완료한 최초의 모델이다. 이 획기적인 성능 수준을 통해 개발자는 전세계 수억 명의 소비자가 사용할 수 있는 대규모 애플리케이션용 최신 언어이해 기능을 사용할 수 있다.

마이크로소프트(Microsoft)와 세계에서 가장 혁신적인 몇몇 스타트업을 포함한 기업들은 초기부터 엔비디아를 채택해 성능 향상을 확인했다. 이들은 엔비디아 플랫폼을 활용해 자사의 고객을 위해 매우 직관적이고 즉각적인 반응형 언어 기반 서비스를 개발하고 있다.

대화형 AI 서비스는 몇 년 동안 제한적으로 존재해왔다. 현재까지 엄청나게 방대한 AI 모델을 배치하는 것이 불가능해 챗봇, 지능형 개인 비서, 검색 엔진 서비스가 인간 수준의 이해력 갖춘 채로 작동되기는 매우 어려웠다. 엔비디아는 AI 플랫폼에 핵심 최적화 기능을 추가해 이러한 문제를 해결했으며, AI 훈련과 인퍼런스를 기록적인 속도로 수행하고, 현재까지 가장 방대한 언어 모델을 구축했다.

엔비디아는 새로운 시대를 선도하기 위해 핵심 최적화를 통해 AI 플랫폼을 미세하게 조정했다. 다음은 엔비디아가 자연어 성능과 관련해 기록한 세 가지 성과다.

 가장 빠른 훈련: 세계에서 가장 진보된 AI 언어모델 중 하나인 BERT의 가장 방대한 버전을 수행한다. 1,472개의 엔비디아 V100 GPU를 실행해 924개의 엔비디아 DGX-2H™ 시스템을 사용하는 엔비디아 DGX 슈퍼POD(DGX SuperPOD)를 통해 며칠이 소요되던 BERT-라지(BERT-Large)의 훈련 시간을 53분으로 단축했다.

 가장 빠른 인퍼런스: 엔비디아 텐서RT(TensorRT™)를 사용하는 엔비디아 T4 GPU를 통해 엔비디아는 BERT-베이스 스쿼드(BERT-Base SQuAD) 데이터세트를 단 2.2ms만에 인퍼런스했다.

 가장 방대한 모델: 엔비디아 리서치는 점점 더 방대한 모델을 요구하는 개발자의 요청에 부응해 BERT에 사용되는 기술 빌딩 블록(building block)과 점점 더 늘어나는 다른 자연어 AI 모델을 기반으로 세계 최대 언어모델을 구축하고 훈련시켰다. 엔비디아의 맟춤형 모델은 83억 개의 매개변수를 가졌으며, BERT-라지 크기의 24배다.

AI 최적화 기능 제공
엔비디아는 개발자들이 대화형 AI에서 이러한 혁신을 달성하는 데 필요한 소프트웨어를 최적화했다.
 파이토치(PyTorch)를 사용한 엔비디아 깃허브(GitHub) BERT 트레이닝 코드*
 NGC 모델 스크립트 및 텐서플로우(TensorFlow)용 체크포인트
 깃허브의 텐서RT 최적화 BERT 샘플
 더 빠른 트랜스포머(Transformer): C++ API, 텐서RT 플러그인 및 텐서플로우 OP
 BERT(훈련 및 인퍼런스)용 AMP를 지원하는 MXNet 글루온-NLP(Gluon-NLP)
 AI Hub의 텐서RT 최적화 BERT 쥬피터(Jupyter) 노트북
 메가트론LM(MegatronLM): 대규모 트렌스포머 모델 훈련을 위한 파이토치 코드
* 엔비디아 BERT 추론은 인기 저장소 허깅 페이스(Hugging Face)에 최적화된 버전이다.

케이벤치 많이 본 기사

케이벤치 많이 본 뉴스