腾讯混元团队推出了基于混合专家(moe)架构的hunyuan-large模型,参数量达到389b,支持多种应用场景。该模型在多项评测中表现优异,采用高效路由策略和合成数据,提升了推理速度和长文处理能力,已开源,适用于企业和开发者。
腾讯混元团队推出了基于混合专家(moe)架构的hunyuan-large模型,参数量达到389b,支持多种应用场景。该模型在多项评测中表现优异,采用高效路由策略和合成数据,提升了推理速度和长文处理能力,已开源,适用于企业和开发者。