最新AI🔥
ChatGPT专栏
ChatGPT官方
DALL.E专栏
DALL.E官方
Sora专栏
Sora官方
Gemini专栏
Gemini官方
国内AI巨头
BuboGPT
文心一言
混元
讯飞星火
通义千问
AI用法
AI提示词
AI评测
垂直行业AI
律师行业AI
金融行业AI
医疗领域AI
开源大模型
写作AI
对话AI
图像AI
绘画AI
视频AI
关于我们
首页
资讯
AI垂直行业定制案例
ChatGPT4定制
对话AI定制
绘图AI定制
AI服装设计助手
智能内容创作助手
AI分类应用场景
文本对话
文本生成图像
文本生成视频
私有大模型
关于
标签:MoE架构
马斯克开源3140亿参数巨型语言模型Grok,对标OpenAI,免费可商用
事件概述 马斯克旗下公司xAI于2024年3月18日开源了其3140亿参数的巨型语言模型Grok-1。 Grok-1采用混合专家(MoE)架构,是目前开源模型中参数量最大的...
苹果发布的最新AI大模型
苹果于2024年3月8日发布了其最新的大型语言模型(LLM)MM1,该模型拥有300亿参数,并采用MoE架构
常用
搜索
工具
社区
生活
常用
百度
Google
站内
淘宝
Bing
搜索
百度
Google
360
搜狗
Bing
神马
工具
权重查询
友链检测
备案查询
SEO查询
关键词挖掘
素材搜索
大数据词云
社区
知乎
微信
微博
豆瓣
搜外问答
生活
淘宝
京东
下厨房
香哈菜谱
12306
快递100
去哪儿
热门推荐: