网站名:
DeepSeek
网站标签:
名网,AI大型模型,API接入,上下文理解,多语言处理,开源模型,性能领先,数学推理,编程支持,逻辑推理
网站介绍:
DeepSeek-V2是由杭州深度求索公司发布的第二代开源MoE模型,DeepSeek-V2 在中文综合能力与 GPT-4-Turbo,文心 4.0 等闭源模型在评测中处于同一梯队,英文综合能力英文综合能力(MT-Bench)与最强的开源模型 LLaMA3-70B 处于同一梯队,超过最强 MoE 开源模型 Mixtral8x22B,特别擅长数学、编程和逻辑推理任务。它在多个大型模型排行榜上名列前茅,支持长达128K的上下文长度,并提供开放源代码。
数据统计
数据评估
关于DeepSeek特别声明
本站名网提供的DeepSeek都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由名网实际控制,在2024年8月29日 下午5:04收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,名网不承担任何责任。
相关导航
暂无评论...