1:1 문의하기
고객센터
1:1 문의하기 고객의 입장에서 가장 답답하고 궁금한 부분을 안내드리겠습니다.

의 사전 훈련 데이터는 20조개

test 0 60

5-맥스 모델의 사전 훈련 데이터는 20조개의 토큰을 넘는다"며 "(오픈AI의) GPT-4o와딥시크-V3, (메타의) 라마(LLaMA)-3.


1-405B를 거의 모든 면에서 능가한다"고 했다.


로이터통신은 설날 첫날 알리바가 큐원 2.


5-맥스 출시를 발표한 것은 딥시크의 급부상이 오픈AI 등 해외 경쟁사뿐 아니라.


5-맥스 모델의 사전 훈련 데이터는 20조개의 토큰을 넘는다”며 “(오픈AI의) GPT-4o와딥시크-V3, (메타의) 라마(LLaMA)-3.


1-405B를 거의 모든 영역에서 능가한다”고 강조했다.


최근 알리바바는 AI 모델 개발에서 성과를 내고 있다고 평가했다.


지난 27일에는 최신 비전 이해 AI 모델인.


딥시크는 AI 모델 훈련에 중국 수출용으로 성능을 낮춘 H800칩을 사용한데다 대형언어모델(LLM)V3개발 비용이 557만6000달러(약 78억8000만원)에 불과하다는 소식이 전해져 글로벌 대기업을 잔뜩 긴장시켰다.


http://www.bbnews.co.kr/


특히 엔비디아가 지속적으로 내놓던 고성능·고비용 전략에 브레이크를 걸었다는 평가가 주를 이뤄.


생겼다”며 “양국은 각자 강점을 활용해 그 어느 때보다 유망한 협력을 이룰 수 있다”고 했다.


앞 딥시크는 상대적으로 낮은 가격의 반도체와 소규모 인프라를 사용하면서도 오픈AI 등 선두주자들을 위협하는 AI모델 ‘딥시크-V3’와 ‘딥시크-R1’을 연달아 출시하며 전 세계 AI 업계에 충격파를 던졌다.


챗봇 답변 실패율 테스트 결과 (사진=뉴스가드)딥시크의 R1과V3는 오픈AI의 o1에 맞먹는 성능과 90% 이하의 저렴한 비용으로 구동된다는 사실이 주목받으며 전 세계 AI 업계에 큰 영향을 미쳤다.


그러나 주목받은 지 며칠 안 돼, 서서히 부정적인 면이 드러나고 있다.


가격이 과장됐다는 지적에 이어 전날에는.


딥시크측은V3를 만드는데 558만달러(약 80억5700만원)가 들었다고 밝혔다.


마크 저커버그 메타 CEO(최고경영자)가 올해 데이터센터 등 AI 인프라 구축에 650억달러(약 93조8300억원)를 투자한다고 밝힌 것과 비교했을 때 턱없이 적은 금액이다.


또딥시크측은 미국의 중국 수출 규제로 엔비디아로부터 구형 AI.


DeepSeek의 대규모 언어모델(LLM)V3은 엔비디아 H800 칩을 사용했고 개발 비용은 약 600만달러(한화 약 87억원)로 메타의 라마 3.


1의 개발비 6억4000만 달러.


여기에딥시크가 AI 모델 훈련에 중국 수출용으로 성능을 낮춘 H800 칩을 사용했고, 지난해 말 공개했던 대형언어모델(LLM) 'V3' 개발 비용은 557만6천달러(약 78억8천만원)에 불과하다는 소식이 전해지자 '가성비'에 이목이 쏠렸다.


특히 엔비디아의 고성능·고비용 전략에 제동이 걸릴 것이라는 전망 속에.


큐웬 이미지(사진:본지DB) 알리바바는 이번 발표에서 자사 AI 모델이 메타(Meta)의 라마(Llama) 및딥시크V3모델보다 우수한 성능을 보였다고 주장하며, AI 시장에서 중국의 기술력이 미국과 어깨를 나란히 할 수준에 도달했음을 강조했다.


5-Max는 아레나-하드(Arena.


딥시크는V3개발 비용을 훈련 단계에 한정해서만 공개했을 뿐, AI 모델 개발에 필수적인 데이터 취득·정제 비용 등은 포함하지 않았다.


SK하이닉스 투심 단기 악화 가능성…삼성전자는 '새옹지마' 전망 금투업계에선딥시크의 ‘가성비A’ 개발이 사실일 경우 국내 양대 반도체주에 미치는 영향이 다를.

CS CENTER

  • 1899-7262
  • 평일 10:00 - 17:00 (점심시간 12:00 - 13:00)
  • 주말, 공휴일 휴무
Copyright 2020 MOMCOOK ALL RIGHTS RESERVED.