嘿咯AI新闻

谷歌AI部门推出了名为DolphinGemma的AI模型,旨在解码海豚“语言”,这一创新成果为研究海洋生物间的沟通方式提供了新机遇。该模型基于谷歌的开放式Gemma系列模型构建,能够生成类似海豚的声音序列,并具备在手机上高效运行的能力。研究人员期待通过这种方法揭示海豚之间更复杂的沟通方式。

2025-04-15 09:21

DeepSeek 宣布开源其推理引擎,并强调与开源社区的合作。OpenAI 即将发布一系列新模型,包括 o3、o4-mini、GPT-4.1 系列模型,以及一个可能与 DeepSeek-R1 性能匹敌的开源模型 Optimus Alpha。此外,OpenAI 还计划推出一款名为 A-SWE 的智能体软件工程师产品,用于处理编程任务。

2025-04-14 21:20

MiniMax稀宇科技推出MiniMax MCP Server,支持视频、图像、语音及声音克隆生成,简化多模态内容创作流程。该平台通过文本输入即可调用多项前沿能力,扩展AI在创意内容生成领域的应用边界。其强大的功能和便捷的使用方式将推动人工智能多模态应用进入新阶段,影响内容创作、教育、娱乐、广告等多个领域。

2025-04-14 21:20

九章云极DataCanvas公司亮相2025 AI算力产业大会,展示其“弹性调度+智能开发+资源普惠”的全栈技术布局,解决了AI算力产业成本高企、技术门槛高、供需错配三大痛点。其自主研发的弹性容器集群VKS(Virtual Kubernetes Stack)以Serverless弹性高性能计算架构为核心,提供资源隔离和自主管理能力,降低部署和维护成本,实现应用的高可用性和稳定性。此外,大模型开发利器Aladdin通过Serverless架构实现本地开发环境与云端算力的无缝对接,使算力使用成本直降75%,开发效率提升4倍。同时,创新研发的算力包产品采用"需求导向型"服务架构,通过"按需配置、即时响应"的弹性供给机制,为用户提供可精准适配业务场景的算力资源组合,成功构建了算力供需的动态平衡机制。在实际应用中,VKS秒级扩缩容的动态算力伸缩功能与算力包的“按量计费”模式结合,搭配大模型开发插件Aladdin,可实时匹配任务复杂度,避免资源闲置并提高开发效率,尤其适用于前沿科技企业的低成本试错与快速迭代。未来,九章云极DataCanvas公司将持续以“行业破壁者”角色探索算力行业的能力边界,携手生态伙伴共同打造“弹性、流动、共生”的算力网络。

2025-04-14 19:20

上海AI Lab开发的AccVideo技术显著提升了视频生成的速度,通过使用合成数据集加速了视频扩散模型的训练。与传统方法相比,AccVideo在生成速度上提高了8.5倍,同时保持了相当的性能。该技术利用合成数据集减少了对高斯噪声的去噪步骤,并通过基于轨迹的少步指导机制和对抗训练策略,使学生模型能够以更少的推理步骤生成高质量的视频。实验结果显示,AccVideo生成的视频伪影更少,画面保真度更高,与现有方法相比,能更好地匹配文本描述。

2025-04-14 19:20

Meta公司最新开源的大模型Llama-4-Maverick在LMArena排行榜上排名骤降,引发刷榜质疑。Meta最初提交的特供版本与开源版本存在差异,导致开发者对Meta是否存在刷榜行为产生怀疑。Meta表示将考虑更新排行榜,并将继续探索定制版本以适应不同场景需求。

2025-04-14 19:19

2025年3月,美国白宫因一场“史诗级乌龙”陷入舆论漩涡:国家安全事务助理迈克尔·华尔兹误将《大西洋月刊》总编辑杰弗里·戈德堡拉入Signal加密群聊,导致美军对也门胡塞武装的作战计划被全程曝光。这场泄密风暴不仅重创美国国家安全,更揭示了传统隐私保护体系的脆弱性——当技术便利性与管理疏忽叠加,再严密的系统也可能因一次误触而崩塌。 为应对这一挑战,AIBase推出隐私智能体(PrivacyAgent),代号“快乐猪(PIG)”,通过多智能体协同框架(InterAgent)重构群聊安全范式,实现“隐私计算+动态授权”的双重革新。该解决方案包括分布式特征提取、多方安全验证和智能合约准入等技术优势,旨在为用户打造一个全方位、多层次的隐私保护网络。

2025-04-14 17:19

文章摘要: 本文由邓慧琳撰写,来自中国科学技术大学。文章主要研究了基于机器之心的AI技术,特别是多模态模型视觉理解和推理增强(R1强化学习)的新训练范式。在中科大、中兴和Qwen-VL等团队的合作下,提出了一种创新的训练方法Curr-ReFT,该方法结合了课程式强化学习和基于拒绝采样的自我改进策略。这种方法显著提高了小规模多模态模型在推理和泛化能力上的表现,尤其是在处理未见过的数据时。实验结果表明,与传统的监督微调(SFT)方法相比,Curr-ReFT不仅提高了准确率,还增强了模型处理未见过数据的能力。此外,该研究还展示了Curr-ReFT在多个权威基准测试集上的性能,证明了其通用性和有效性。 关键词:多模态模型、机器学习、深度学习、强化学习、后训练范式、任务复杂度渐进式提升、拒绝采样、自我改进策略、计算机视觉、自然语言处理、人工智能。

2025-04-14 15:19

清华大学与上海AI Lab合作,提出了一种名为GenPRM的生成式过程奖励模型,通过结合代码验证和思维链推理,显著提升了小模型在复杂任务中的性能。该模型不仅能够进行评分,还能提供步骤级的批评和反馈,从而大幅提升了过程监督的深度和实用性。 GenPRM的核心创新在于其测试时扩展机制,允许模型在不增加计算资源的情况下,通过并行采样多条推理路径来提高评估精度。此外,GenPRM还利用相对进步估计(RPE)和代码验证技术,生成高质量的过程监督数据,进一步优化了模型性能。 在ProcessBench等数学推理基准测试中,GenPRM展现出了卓越的性能,仅使用23K训练数据就能超越GPT-4o,证明了其在小模型上的巨大潜力。此外,GenPRM还适用于策略模型的测试时扩展,通过Best-of-N实验展示了其优异的筛选能力。 这一成果不仅为大语言模型的过程监督提供了新的思路,也为模型的自我改进提供了可解释的技术路径。研究者已开源代码、模型及23K训练数据集,未来有望扩展到代码生成、多模态推理等领域。

2025-04-14 15:18

这篇文章主要探讨了强化学习在推理模型中的应用,特别是如何通过训练来提高模型的简洁性和准确度。文章首先指出,尽管强化学习的目标是最小化损失,但响应长度的增加并不一定是由于奖励的减少,而是因为模型倾向于生成更长的响应以获得更多的奖励。然后,文章解释了为什么使用负奖励时,响应长度会增长,以及这如何影响模型的性能。接着,文章提出了一种两阶段强化学习策略,第一阶段使用高难度问题来增强模型解决问题的能力,第二阶段使用偶尔可解的问题来缩短响应长度并提高准确度。最后,文章通过实验验证了新提出的两阶段强化学习训练方法的效果,结果表明这种方法可以在保持甚至提高准确度的同时提升简洁性,并且即使在有限的采样量下也能确保卓越的性能。

2025-04-14 15:18