Topic #10: 오픈소스 LLM 씬의 라이징 스타! 'DeepSeek'을 알아보자 > 자유게시판

본문 바로가기
사이트 내 전체검색

자유게시판

Topic #10: 오픈소스 LLM 씬의 라이징 스타! 'DeepSeek'을 알아보자

페이지 정보

profile_image
작성자 Mariel Strub
댓글 0건 조회 6회 작성일 25-02-01 14:41

본문

The DeepSeek v3 paper (and are out, after yesterday's mysterious release of Loads of attention-grabbing details in here. More evaluation results can be discovered right here. This is doubtlessly solely model specific, so future experimentation is required right here. This model is a high quality-tuned 7B parameter LLM on the Intel Gaudi 2 processor from the Intel/neural-chat-7b-v3-1 on the meta-math/MetaMathQA dataset. The Intel/neural-chat-7b-v3-1 was originally wonderful-tuned from mistralai/Mistral-7B-v-0.1. 1.3b-instruct is a 1.3B parameter model initialized from deepseek-coder-1.3b-base and nice-tuned on 2B tokens of instruction information.

댓글목록

등록된 댓글이 없습니다.

회원로그인

회원가입

Copyright © 소유하신 도메인. All rights reserved.