嘿咯AI新闻

美国公众对新闻行业采用人工智能技术持怀疑态度,调查显示近半数受访者不希望通过AI获取新闻。调查招募了1128名多元化美国受访者,49%的受访者表示“完全不感兴趣”。公众对AI在新闻领域应用存在严重信任危机,30%的受访者对新闻机构使用AI撰写文章“完全没有信心”,32%的人对出版商使用AI创作图像同样表示强烈不信任。明尼苏达大学媒体专家警告说,不要指望AI的需求会非常大。

2025-04-14 09:15

OpenAI 首席执行官山姆·奥尔特曼宣布,本周将推出多款新产品。这些产品将从周二开始陆续上线,包括 o3和 o4-mini 版本,以及 GPT-5。此举旨在使 GPT-5的表现超越最初的设想,并整合多种功能以适应不同的应用场景。此外,OpenAI 还计划将 o 系列模型与 GPT 系列模型统一起来,构建灵活使用多种工具的系统。

2025-04-14 09:14

Netflix正在测试一项由OpenAI支持的搜索功能,允许用户根据心情查找内容。该功能目前仅向澳大利亚和新西兰的部分iOS用户开放,且为可选功能。未来几周和几个月内,该功能将扩展到美国市场,但尚未在iOS平台之外推出。这项创新搜索工具将帮助用户进行更复杂的查询。Netflix在人工智能应用方面并非新手,公司联合首席执行官Greg Peters曾表示,他们利用这些创新来服务创作者,让他们以更引人入胜的方式讲述自己的故事,同时也为会员提供更好的用户体验。

2025-04-14 09:14

HoloPart 和 UniRig 是两个引人注目的3D 生成项目,它们分别专注于解决三维模型部件编辑和自动绑定的问题。 **HoloPart**: - **论文标题**:HoloPart: Generative 3D Part Amodal Segmentation - **技术亮点**: - **部件完整语义分割**:通过扩散变换器架构实现部件与整体形状的无缝连接,并推断出被遮挡部分的几何结构。 - **局部注意力机制**:关注输入表面块的精细几何细节,确保补全后的部件与可见几何完美衔接。 - **上下文感知注意力**:关注整体形状以及该部件在其中的位置,确保补全的部件在全局上是合理的——保持比例、语义和整体形状的一致性。 **UniRig**: - **核心方法**:自回归预测与创新的Tokenization方法。 - **技术亮点**: - **骨骼树Tokenization**(Skeleton Tree Tokenization):将具有复杂关节相互依赖关系的层级化骨骼结构表示为适合Transformer处理的线性序列,以便于后续的自动绑定和蒙皮处理。 - **骨骼 - 表面交叉注意力**(Bone - Point Cross Attention):通过关键测地线距离信息增强空间感知能力,同时捕捉每根骨骼对其周围模型表面的复杂影响。 - **高精度与鲁棒性**:显著提升自动绑定技术的现有水平,包括高精度、强通用性和高鲁棒性。 **总结**: HoloPart和UniRig都是3D内容创作领域的重大进展,它们提供了强大的工具来提高三维模型的编辑效率和质量。HoloPart专注于部件的完整语义分割和自动补全,而UniRig则专注于提高自动绑定的精度和泛化能力。这些技术的发展不仅能够简化复杂的三维模型编辑任务,还能够推动更高级的内容创作应用的发展。

2025-04-13 19:13

Pangu Ultra: Pushing the Limits of Dense Large Language Models on Ascend NPUs In a field where large models are king, Pangu Ultra stands out as a testament to the power of using domestic technology to achieve state-of-the-art results. This model, developed by the team at Pangu Technology, is not only based on the powerful Ascend NPUs but also leverages the latest advancements in deep learning techniques for training dense language models. With a total parameter count of 135B and an embedding size of 94 layers, Pangu Ultra represents a significant milestone in the development of large language models. The key to Pangu Ultra's success lies in its innovative architecture and optimization strategies. The model is designed around a 94-layer Transformer structure, with FANN (SwiGLU) layers at the front end, attention layers at the back, and GQA (GQA) layers in between. The use of Sandwich-Norm and TinyInit initializers ensures that the model maintains stable performance even during training. Additionally, the team has optimized the pre-training process by carefully selecting data and fine-tuning the model based on quality assessment scores. One of the most impressive aspects of Pangu Ultra is its ability to train on massive amounts of data without sacrificing accuracy or stability. The model can process up to 128K tokens per second, allowing it to handle tasks like text classification, reasoning, and decoding in real-time. This capability is particularly valuable in scenarios where processing speed is critical, such as natural language generation and dialogue systems. Another highlight of the research is the extensive testing and evaluation conducted on a variety of benchmarks. Pangu Ultra achieved state-of-the-art results across multiple domains, including Llama 405B, MiSTral 2016, and DeepSeek R1. These achievements demonstrate the model's ability to generalize well beyond its initial training data and compete with leading global models. In terms of system optimization, Pangu Ultra utilizes a range of advanced techniques to improve efficiency and reduce resource usage. For example, the team employed a combination of hybrid parallelism, fine-grained load balancing, efficient fused operations, and subsequence splitting to achieve optimal performance on large clusters

2025-04-13 17:12

扩散模型奖励微调新突破:Nabla-GFlowNet让多样性与效率兼得 在最新的AI技术研究中,来自机器之心的团队提出了一种创新的方法来提高扩散模型在美学评分奖励函数(Aesthetic Score)上的性能。他们开发了名为Nabla-GFlowNet的算法,通过引入梯度信息和精心设计的网络结构,实现了高效且平衡的微调过程。这项技术不仅提高了生成图像的质量,还保持了较高的多样性,同时加快了训练速度。 核心在于利用生成流网络(GFlowNet)框架,该框架将扩散模型的生成过程视为一个动态系统,其中“水流”从源头流向终点,每个节点的水流都对应着一定的奖励。通过推导出新的平衡条件——Nabla-DB,并设计了一个参数化的损失函数,Nabla-GFlowNet能够有效地调整模型参数,以适应不同的奖励函数。 实验结果表明,Nabla-GFlowNet方法在多个奖励函数上均表现出色,特别是在Aesthetic Score奖励函数上,可以快速得到奖励更高的生成图像,同时避免了过拟合。此外,该方法在保持生成样本多样性方面也显示出优势,相较于其他直接奖励优化的方法,如ReFL和DRaFT,Nabla-GFlowNet更难陷入过拟合。 总之,Nabla-GFlowNet为扩散模型提供了一种既高效又平衡的微调方法,有望在实际应用中取得更好的效果。

2025-04-13 15:12

MegaMath 数据集由LLM360推出,是全球最大的开源数学推理预训练数据集,包含3710亿tokens,覆盖网页、代码和高质量合成数据三大领域。该数据集的构建解决了以往开源数据集规模过小、质量不足的问题,为数学语言模型的训练提供了高质量的数据支持。MegaMath不仅在规模上超越DeepSeek-Math Corpus(120B),而且在质量与多样性上也有所突破。通过严格的工程优化和技术迭代,MegaMath确保了数据的实用性与泛化能力并存。实验表明,MegaMath在多个标准数学任务上取得了显著提升,为构建更强数学语言模型奠定了基础。

2025-04-13 15:12

这篇文章是关于语言模型推理性能的最新研究,特别是关注强化学习(RL)在小蒸馏模型上的应用。文章指出,尽管强化学习在某些情况下可能有助于改进较小的蒸馏模型,但其效果被夸大了,需要更好的评估标准来了解哪些方法真正有效。此外,研究者强调了对结果可靠性的影响最大的因素包括采样差异、解码配置和硬件异构性等。 文章还探讨了推理设计空间中的重要问题,如Pass@1的准确性、响应长度与性能之间的关系以及多样性坍缩现象。研究发现,通过强化学习训练的方法未能显著提升性能,而SFT(监督微调)模型在基准测试中获得显著且可推广的提升。此外,较长的响应与较高的错误概率相关联,表明响应长度可能是影响推理准确性的一个重要因素。 最后,文章提出了一些关键问题,如响应长度与性能之间的关系是否适用于所有情况,以及这种现象是否主要由截断或不完整响应导致。这些问题的答案对于进一步理解强化学习和推理性能的关系至关重要。

2025-04-13 15:12

爱尔兰数据保护委员会(DPC)对社交媒体平台X公司展开调查,因未经用户同意使用其个人数据训练AI聊天机器人Grok。此举违反了欧盟通用数据保护条例(GDPR)规定,可能面临全球收入4%的罚款。此事件凸显了企业在处理用户数据时必须遵守法律和道德标准的重要性,并提醒科技公司重视数据隐私和保护,以赢得用户信任和可持续发展。

2025-04-13 11:11

谷歌DeepMind计划整合Gemini与Veo,打造智能全能助手。此举旨在提升Gemini对物理世界的理解能力,开发一个能在现实生活中提供帮助的通用数字助手。Gemini模型最初设计为多模态系统,能够处理多种类型的数据和信息。Hassabis指出,这一举措将使助手更好地理解和与世界互动。整个AI行业正朝着“全能”模型发展,许多公司也在探索类似的方向。谷歌通过扩大服务条款获取更多YouTube内容用于AI模型训练,确保模型的多样性和准确性。这一计划预示着AI助手将不再局限于单一任务,而是能够在多个领域提供实用的支持,为用户的生活带来更多的便利。

2025-04-13 11:11