“大语言模型”的版本间的差异
第4行: | 第4行: | ||
*[[大语言模型准备阶段的数据收集,对数据的质量和多样性有什么好的保障措施?]] | *[[大语言模型准备阶段的数据收集,对数据的质量和多样性有什么好的保障措施?]] | ||
*[[大语言模型的训练数据为什么数量越多越好?不会太多了可能产生混乱吗?]] | *[[大语言模型的训练数据为什么数量越多越好?不会太多了可能产生混乱吗?]] | ||
+ | *[[ERNIE]] | ||
+ | *[[ERNIE Speed Pro]] | ||
+ | *[[ERNIE Lite Pro]] | ||
+ | *[[ERNIE Speed]] | ||
+ | *[[ERNIE Lite]] | ||
+ | *[[ERNIE Tiny]] | ||
+ | *[[ERNIE Character]] | ||
+ | *[[ERNIE 3.5 8K Preview]] | ||
+ | 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。 | ||
+ | *[[ERNIE-3.5 128K]] | ||
+ | 百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。 | ||
+ | *[[ERNIE 4.0 8K]] | ||
+ | 百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。 | ||
+ | *[[ERNIE 4.0 8K Preview]] | ||
+ | 百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。 | ||
+ | *[[ERNIE 4.0 Turbo 8K]] | ||
+ | 百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。 | ||
+ | *[[Llama]] | ||
+ | *[[ChatGLM]] | ||
+ | *[[LLaVA]] | ||
+ | *[[Baichuan]] | ||
+ | *[[Mixtral]] |
2024年12月9日 (一) 00:59的最新版本
- 大语言模型相关术语
- 如何准备大语言模型的机器学习资料?
- 大语言模型准备阶段的数据收集,对数据的质量和多样性有什么好的保障措施?
- 大语言模型的训练数据为什么数量越多越好?不会太多了可能产生混乱吗?
- ERNIE
- ERNIE Speed Pro
- ERNIE Lite Pro
- ERNIE Speed
- ERNIE Lite
- ERNIE Tiny
- ERNIE Character
- ERNIE 3.5 8K Preview
百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
百度自研的旗舰级大规模⼤语⾔模型,覆盖海量中英文语料,具有强大的通用能力,可满足绝大部分对话问答、创作生成、插件应用场景要求;支持自动对接百度搜索插件,保障问答信息时效。
百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。
百度自研的旗舰级超大规模⼤语⾔模型,相较ERNIE 3.5实现了模型能力全面升级,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。
百度自研的旗舰级超大规模⼤语⾔模型,综合效果表现出色,广泛适用于各领域复杂任务场景;支持自动对接百度搜索插件,保障问答信息时效。相较于ERNIE 4.0在性能表现上更优秀。