暂无相关动态更新
MiniMax 发布了 m2.1-preview 模型
一款长上下文推理大模型,支持高达100万Token的输入上下文长度,是当前支持最多推理长度的大模型之一,在计算效率上也表现出色。