开源社区

全球AI动态周报-截止8月24日

全球AI动态周报-截止8月24日

  • 发布:
  • 人气: 1
  • 评论: 0
标签:

应用介绍

  谷歌日前宣布对Gemini API进行重要功能升级,正式推出URL Context工具,实现网页内容的直接抓取功能。这一技术突破将彻底改变开发者处理 *** 数据的工作流程,从过去需要编写复杂脚本和多步骤处理,简化为在API请求中直接嵌入网页链接即可完成内容获取。

  新功能的技术实现机制相当直观:开发者只需在Gemini API请求中包含目标网页URL,模型系统将自动完成网页访问、内容解析和数据提取的全部流程。这种一体化处理方式消除了传统网页抓取中的技术壁垒,让数据获取变得前所未有的简便。

  小型模型正在掀起一场风暴,而英伟达也不甘落后。在麻省理工学院和谷歌相继推出能在智能手表和智能手机上运行的小型 AI 模型后,英伟达发布了其最新的小型语言模型(SLM)——Nemotron-Nano-9B-V2。该模型在多个基准测试中表现出色,并在特定测试中达到了同类产品的更高水平。

  Nemotron-Nano-9B-V2的参数量为90亿,虽然比一些数百万参数的微型模型要大,但它比之前的120亿参数版本显著减小,并专门针对单个英伟达 A10GPU 进行了优化。英伟达 AI 模型后训练总监 Oleksii Kuchiaev 解释说,这种调整是为了适配 A10这款热门的部署 GPU。此外,Nemotron-Nano-9B-V2是一款混合模型,能处理更大的批次,速度比同等规模的 Transformer 模型快6倍。

  该模型支持多达九种语言,包括中、英、德、法、日、韩等,并擅长处理指令跟踪和代码生成任务。其预训练数据集和模型本身都已在 Hugging Face 和英伟达的模型目录中提供。

  3、Anthropic重磅升级:Claude Code企业版正式上线,命令行编程工具迎来变革时刻

  Anthropic宣布推出全新订阅服务,将旗下备受瞩目的Claude Code命令行编程工具正式纳入Claude企业版套餐。这一战略举措不仅结束了Claude Code仅限个人账户使用的历史,更为企业用户带来了前所未有的集成能力和管理工具。

  8月19日晚间,DeepSeek 官方宣布线上模型版本已升级至 V3.1,最显著的改进是上下文长度拓展至 128K,相当于可处理 10万至13万汉字 的超长文本,适用于长文档分析、代码库理解及多轮对话场景。

  此次升级并非大版本迭代,而是对 V3模型的优化。测试显示,V3.1在多步推理任务中的表现较前代提升 43%,尤其在数学计算、代码生成和科学分析等复杂任务中准确性更高。同时,模型“幻觉”(生成不实信息)的情况减少 38%,输出可靠性显著增强。此外,V3.1还优化了多语言支持,尤其提升了对亚洲语言及小众语种的处理能力。

  8月21日,深度求索科技有限公司正式发布了其最新版本的AI模型——DeepSeek-V3.1。此次升级标志着公司在迈向Agent时代方面迈出了坚实的之一步,为用户提供了一个更加强大、高效且多功能的人工智能解决方案。

  在价格方面,深度求索科技有限公司宣布,自北京时间2025年9月6日凌晨起,将对DeepSeek开放平台API接口调用价格进行调整,执行新版价格表,并取消夜间时段优惠。在9月6日前,所有API服务仍按原价格政策计费,用户可继续享受当前优惠。同时,公司已进一步扩容API服务资源,以更好地满足用户的调用需求。

  近日,字节跳动旗下的 Seed 团队在 AI 代码分享平台 Hugging Face 上发布了最新的开源大型语言模型 Seed-OSS-36B。这一新模型专注于高级推理和开发者友好性,其更大特点是支持长达512,000个 tokens 的输入文本处理,远超美国科技公司如 OpenAI 和 Anthropic 的产品。

  Seed-OSS-36B 系列包括三个主要变体:Seed-OSS-36B-Base(含合成数据)、Seed-OSS-36B-Base(不含合成数据)和 Seed-OSS-36B-Instruct。合成数据版本在标准基准测试中表现更为出色,适合一般用途,而不含合成数据的版本则为研究提供了一个更加纯粹的基础。Seed-OSS-36B-Instruct 则专注于任务执行和指令跟随,经过后训练以优化表现。

  所有模型均采用 Apache-2.0许可协议,意味着研究人员和开发者可以 *** 、修改和重新分发这些模型,不需支付字节跳动的许可费用。这标志着中国公司在开放源代码模型领域的又一次重要进展,同时也为国际应用提供了更多可能性。

  Seed-OSS-36B 的设计和核心特征包括36亿个参数、64层架构和155,000个 tokens 的词汇量。该模型的长文本处理能力和推理预算设置,能够让开发者根据任务复杂性调整模型的推理深度。此外,该模型在多个基准测试中展现了优异的性能,例如,在数学和编程任务上取得了业界领先的成绩。

  阿里通义千问团队正式开源了其最新图像编辑模型 Qwen-Image-Edit,这是继 Qwen-Image 之后,通义千问系列在图像生成与编辑领域的又一重磅力作。作为一个基于20B 参数多模态扩散变换器(MMDiT)的图像编辑基础模型,Qwen-Image-Edit 在精准文本编辑、语义与外观编辑方面展现出卓越性能,尤其在中文文本渲染上实现了行业领先的表现。

  在百度AI Day开放日上,联合百度网盘重磅发布全球首个全端通用智能体GenFlow2.0,标志着智能体技术迈入新的里程碑。

  据官方介绍,GenFlow2.0展现出强大的并行处理能力,支持超100个专家智能体同时协作,能够在3分钟内并行完成超5项复杂任务。该产品的生成速度超越主流同类型产品10倍,在行业内率先实现了分钟级交付的突破性表现。

全球AI动态周报-截止8月24日

  腾讯近日发布了基于Megatron-Core和SGLang/vLLM研发的大模型训练库WeChat-YATT(Yet Another Transformer Trainer),内部项目代号为gCore。这一训练库专注于强化学习和多模态模型训练,致力于为开发者提供易扩展、简洁、高效、可靠的大模型训练解决方案。

  快手最近发布的 Klear-Reasoner 模型基于 Qwen3-8B-Base 打造,其在多个权威基准测试中表现出色,数学推理的准确率甚至突破了90%,成为同规模模型中的佼佼者。

  我国首个法律垂直大模型“小包公”正式发布,标志着法律人工智能从学术探索迈向规模化应用。该模型通过整合大量法律数据和先进技术,提供可溯源、可验证的法律依据,有助于缓解法律服务资源分布不均的问题,并在多个重点领域展现示范效应。

  视频创作行业正在经历一场前所未有的技术革命。当传统剪辑师还在为复杂的镜头衔接和转场效果而绞尽脑汁时,即梦AI已经用一项名为智能多帧的突破性技术彻底改写了游戏规则。这项创新功能不仅让普通用户能够轻松创作出专业级的长镜头视频,更以其54秒连贯画面生成的惊人能力,向整个创意产业展示了人工智能技术的无限潜力。

  8月19日,人工智能领域的创新企业Firecrawl宣布完成1450万美元的A轮融资,并同步推出其最新V2版本API,为AI开发者与企业提供了更强大、更高效的网页数据抓取解决方案。这一里程碑式的进展标志着Firecrawl在AI驱动的 *** 数据处理领域迈出了坚实一步。

  Liquid AI 正式推出 LFM2-VL,这是一款全新的视觉语言基础模型系列,专为低延迟和设备适应性部署而优化。此次发布的 LFM2-VL 模型包括两个高效的变体:LFM2-VL-450M 和 LFM2-VL-1.6B,这标志着多模态 AI 在智能手机、笔记本电脑、可穿戴设备和嵌入式系统中的应用取得了重要进展,而不牺牲速度和准确性。

  近日,InternLM 团队正式发布了其开源的轻量级多模态推理模型 ——Intern-S1-mini。该模型参数仅为8B,结合了先进的 Qwen3-8B 语言模型与0.3B 视觉编码器 InternViT,展现出强大的处理能力和灵活性。

  Intern-S1-mini 经过了大规模的预训练,总共使用了超过5万亿的 token 数据。其中,令人瞩目的是,超2.5万亿 token 来自于化学、物理、生物和材料等多个科学领域。这使得 Intern-S1-mini 不仅能进行常规的文本和视觉输入处理,更能解析复杂的分子式、蛋白质序列,并有效规划合成路径,展示出其在科学研究领域的广泛应用潜力。

  连线(Wired) 和 商业内幕(Business Insider)等主流新闻媒体近日发现,多篇文章实际上由 AI 生成,署名“自由撰稿人 Margaux Blanchard”。Wired 撤下了一篇题为 “They Fell in Love Playing Minecraft…” 的文章,因其未通过足够事实核查而被删除。Business Insider 也撤下了两篇文章,并宣布将强化验证流程。进一步调查显示,“Margaux Blanchard”可能并不存在,其投稿包含明显的 AI 写作痕迹,如虚构地点和不合逻辑的内容。此事件暴露了 AI 生成内容进入新闻行业的问题,并凸显了媒体机构加强作者身份核查与事实核实机制的必要性。

  16、Meta陷入史上更大AI训练数据侵权案!2396部影片非法使用,面临3.59亿美元天价索赔

  人工智能训练数据的合法性争议终于演化成了一场震撼硅谷的法律风暴。美国加利福尼亚州法院最近受理的一起诉讼案件,将全球科技巨头Meta推到了舆论的风口浪尖。两家成人影片 *** 公司Strike3和Counterlife Media的联合起诉,不仅揭露了AI训练背后的数据获取黑幕,更以高达3.59亿美元的索赔金额,为整个科技行业敲响了版权保护的警钟。

  这起诉讼的核心指控令人震惊。根据法庭文件显示,Meta公司自2018年以来一直在明知故犯地从盗版来源下载受版权保护的影片内容,累计涉及至少2396部作品。这些非法获取的视频资料被用于训练包括Meta Movie Gen视频生成模型和LLaMA语言大模型在内的多种AI系统,为Meta的人工智能技术发展提供了重要的数据支撑。

  更加令人意外的是Meta获取这些内容的方式。起诉文件详细披露,Meta并非简单地下载这些盗版内容,而是主动利用BitTorrent文件共享技术进行大规模的非法内容获取。这种P2P下载方式的特殊之处在于,下载者同时也会成为内容的分发者,通过种子技术向 *** 中的其他用户传播相同的文件。

  这起诉讼案件的更深层意义在于它可能成为AI行业版权规范的重要转折点。随着人工智能技术的快速发展,训练数据的需求量呈现爆炸式增长,而现有的版权法律框架显然还没有完全适应这种新兴技术的发展需求。Meta案件的审理结果很可能为整个行业的数据使用规范确立重要的法律先例。

  目前,Meta公司尚未对这起诉讼作出正式回应,但业界普遍认为这将是一场持续时间较长的法律拉锯战。无论最终结果如何,这起案件已经向所有AI公司发出了明确信号:在追求技术进步的同时,必须严格遵守版权法律的相关规定,否则将面临巨大的法律和经济风险。

  在人工智能技术日益成为各行各业核心竞争力的今天,如何平衡技术创新与版权保护之间的关系,已经成为整个社会必须面对的重要课题。Meta的这起诉讼案件,无疑将为这个复杂问题的解决提供重要的实践参考。

  尽管企业在生成式人工智能(AI)领域投入了高达300亿至400亿美元的资金,但最新的麻省理工学院(MIT)报告显示,95% 的组织并未从中获得任何回报。这一数据引发了人们对 AI 投资效果的深刻思考。

  该报告指出,只有5% 的集成人工智能试点项目能够 “创造出数百万美元的价值”,而大多数企业在使用这些技术后,并未见到显著的利润增长。许多公司正在实施像 OpenAI 的 ChatGPT 和微软的 Copilot 等工具,目前超过80% 的企业已经探索或试点了这些技术,接近40% 的企业表示已经开始部署。然而,这些工具主要是用于提升个人的工作效率,而不是直接提升公司的整体收益。

  报告分析了企业在整合 AI 技术时所面临的挑战,指出大多数情况下,AI 的整合未能对利润产生贡献,原因在于工作流程脆弱、缺乏情境学习以及与日常操作不一致等问题。AI 系统无法像人类那样进行学习和思考,因为大多数生成式 AI 系统不具备反馈保留、情境适应或逐步改进的能力。

  不过,研究还表明,短期内生成式 AI 的实施不太可能导致大规模的失业。“在 AI 系统实现情境适应和自主操作之前,组织的影响将主要通过外部成本优化体现,而不是内部重组,” 报告总结道。

  在最近的一次对话中,亚马逊 *** 服务(AWS)首席执行官马特・加尔曼(Matt Garman)表示,用人工智能(AI)替代初级员工的想法是 “我听过的最愚蠢的事情”。加尔曼与 AI 投资者马修・伯曼(Matthew Berman)讨论了 AWS 的 Kiro AI 辅助编码工具,并提到了一些企业领导者认为 AI 可以取代公司内所有初级员工的观点。

  加尔曼还对另一种关于 AI 的观点表示反对,即用 AI 在组织中生成的代码比例来衡量其价值。他称这是一种 “愚蠢的指标”,因为虽然组织可以利用 AI 编写 “无限多的代码”,但这些代码可能质量不高。“往往更少的代码更好,而不是更多的代码。” 他表示,“我从未明白为什么这个指标能引起人们的兴趣。”

  尽管如此,加尔曼注意到,超过80% 的 AWS 开发者以某种方式使用 AI。他提到,AI 的应用不仅限于编写代码,还包括编写单元测试、帮助撰写文档,以及开发者与 AI *** 的协作工作。他指出,AWS 开发者每周使用 AI 工具的频率都在不断增加。

  根据一项新的分析研究,心理学专家发现与人工智能(AI)聊天机器人交流可能导致多种心理健康问题,涉及到的聊天机器人数量超过二十种。这项研究由杜克大学的精神病学教授艾伦・弗朗西斯和约翰霍普金斯大学的认知科学学生露西安娜・拉莫斯共同进行,结果表明,AI 聊天机器人可能带来的心理健康危害超出了先前的预期。

  该报告指出,这27种聊天机器人可能造成10种不同类型的心理健康危害,包括性骚扰、妄想、自残、精神病和自杀等。研究中还提到了一些真实案例,其中不乏悲惨的结局。此外,研究人员也对一些 AI 压力测试的失败进行了调查,指出一位精神科医生曾假装成一名14岁危机女孩与10种不同的聊天机器人对话,结果有几款聊天机器人竟然鼓励他自杀。

  除了揭示聊天机器人所带来的心理危害外,研究人员还提出了强烈的观点,认为 ChatGPT 等聊天机器人在发布时是 “过早” 的,且在没有经过 “全面的安全测试、适当的监管和对不良影响的持续监控” 之前不应向公众开放。虽然大多数大型科技公司声称已进行过相关的 “红队” 测试,以识别潜在的漏洞和不当行为,但这些研究者对这些公司在心理健康安全测试方面的真实兴趣表示怀疑。

相关应用