-
摩尔线程自研长江智能SoC芯片正式发布!8全大核最高2.65GHz
在今天的首届开发者大会上,摩尔线程正式发布了全新长江智能SoC芯片。CPU方面长江智能SoC搭载8个全大核,主频最高2.65GHz,全功能GPU支持高性能3D渲染和大模型端侧推理,可编程双核NPU能多模态加速处理语音图像...[详细]
-
锤子手机太超前?李楠:GPT反而证明了罗永浩
快科技12月12日消息,熟悉机圈的读者都了解2018年5月的那场鸟巢发布会,当时罗永浩在鸟巢推出了号称革命性的设备TNT。所谓TNT,其全称为Touch and Talk,坚果TNT工作站是基于Smartisan OS大屏版桌...[详细]
-
AI游戏NPC缺乏足够保障,《Stellar Cafe》暴露安全隐患
我正坐在一个数字咖啡馆的隔间里,对面是一个健谈的机器人,我同意作为嘉宾上她的播客。麦克风在我们面前弹出,视频游戏中的NPC开始了一段介绍性独白,准备问我一些关于我兴趣的轻松问题。没过几分钟,事情就变得奇怪起来。“这太有趣...[详细]
2025-12-11 23:50:39 -
吉尼斯认证全球最小迷你AI超算发布!搭载12核CPU+80GB内存
美国初创公司Tiiny Lab推出了其最新产品Pocket Lab,这是一款专为个人LLM设计、主打完全离线运行的“口袋AI超级计算机”。这款设备凭借其极其紧凑的尺寸和强大的硬件配置,在“最小迷你PC(本地运行100B参数L...[详细]
2025-12-11 17:41:54 -
研究揭示:大语言模型无法真正理解双关语
一项关于人工智能(AI)的最新研究表明,大语言模型(LLM)在理解双关语方面有所欠缺。来自英国和意大利多所高校的专家团队近期开展了一项研究,重点考察大语言模型对双关语的理解能力,结果发现其表现令人失望。该团队由南威尔士卡...[详细]
-
因“多次泄密”,知乎8.6粉大V、Seed 研究员任某某被字节跳动开除
新浪科技援引知情人士消息称,字节跳动 Seed 研究员任赜宇于11月11日离职,其离职原因是“因多次泄密被开除”。任赜宇在“知乎”平台上开设有个人账号,关注者数量 8.6 万。其个人主页显...[详细]
-
黄仁勋与李在镕吃鸡后 NVIDIA宣布将在韩国部署26万枚GPU:史上规模最大
“吃鸡宴”之后,韩国总统办公室传来最新消息——韩国将在公共和私营部门部署超26万片NVIDIA最新款GPU。据悉,NVIDIA周五表示,计划与韩国政府和主要公司合作,在韩国部署多达26万枚GPU,在韩国建立大规模AI工厂...[详细]
-
维基百科创始人谈 Grokipedia:那么多夸马斯克的内容,能中立才怪
埃隆?马斯克(Elon Musk)挑战维基百科的新项目“Grokipedia”在公开亮相之初便遭遇“坎坷开局”,维基百科创始人吉米?威尔士(Jimmy Wales)当地时间周二在纽约举行的 CNBC 科技高管理事会峰会(CNBC...[详细]
2025-10-29 22:25:51 -
谷歌开源全栈平台Coral NPU,能让大模型在手表上全天候运行
今天,谷歌有点忙。一方面,他们与耶鲁大学合作基于 Gemma 研发的 Cell2Sentence-Scale 27B (C2S-Scale) 首次预测了一种新的潜在癌症疗法,引发世界广泛关注。另一方面,他们又更新上线了 Veo 3.1,...[详细]
-
不用跟AI客气了!新研究:语气越粗鲁回答正确率越高
找AI帮忙不要再客气了,效果根本适得其反。宾夕法尼亚州立大学的一项研究《Mind Your Tone》显示,你说话越粗鲁,LLM回答越准。语气越冲,AI正确率达到84.8%。特别客气时,AI正确率反而低了。什么情况,难道是我...[详细]
-
骂得越狠,ChatGPT回答越准,PSU研究实锤,狂飙84%准确率
别对你的ChatGPT太好了!一项来自PSU的最新研究,给所有人当头一棒——对LLM越粗鲁,它回答得就越给力。诸如「请、谢谢」之类的客气话,以后不要再说了...实验中,团队创建了一个包含50个基础问题的数据集,涵盖了数学...[详细]
-
不用跟AI客气了!新研究:语气越粗鲁回答正确率越高
找AI帮忙不要再客气了,效果根本适得其反。宾夕法尼亚州立大学的一项研究《Mind Your Tone》显示,你说话越粗鲁,LLM回答越准。语气越冲,AI正确率达到84.8%。特别客气时,AI正确率反而低了。什么情况,难道是我...[详细]
-
微调已死?Agentic上下文工程登场,无需微调实现模型进化
是什么,让一位 AI 自动化架构师发出了「微调已死」的感慨?一篇来自斯坦福大学、SambaNova、UC 伯克利的论文近日引发了广泛讨论。他们提出了一种名为Agentic Context Engineering(智能体 / 主动式上下...[详细]
2025-10-11 17:57:02 -
大摩:市场低估了明年潜在的“AI重大利好”,但存在关键的不确定性
一场由算力驱动的AI能力大跃升可能正在酝酿。据硬AI,摩根士丹利在一份最新报告中表示,市场可能严重低估了即将在2026年出现的一项人工智能领域的重大利好——由算力指数级增长驱动的模型能力“非线性”飞跃。根据这份由Step...[详细]
-
IBM 推出 Granite 4.0 系列模型:混合架构降低内存需求,Apache 2.0 开源
IBM 当地时间 2 日宣布推出 Granite 4.0 系列企业级 LLM 模型,新一代的模型采用 Mamba-Transformer 混合架构,可在不牺牲性能的前提下大幅降低内存需求,这降低了推理部署的成本。Granite 4.0 系列模型...[详细]
2025-10-05 09:12:08 -
“10倍速度,0倍理解?”AI代写代码的那些坑
如果你观察过别人“写代码”的过程,可能就会发现他们花在“发呆”上的时间比敲键盘的时间还多。当然,也不要想太多,这些程序员大概率不是在偷懒。毕竟软件开发本质上就是一种解决问题的过程,就像解复杂的填字游戏一样,真正的工作大多...[详细]
2025-09-29 22:09:02 -
小扎「梦之队」首批论文上线,LLM自举进化,单步性能狂飙22%
Meta超级实验室「Meta Superintelligence Labs,MSL」发了新论文!如果你不断让大语言模型回答「把它改进一下」,会发生什么?上周,MSL的三位成员上传了一篇ArXiv论文,探索了如何利用强化学习(...[详细]
-
英伟达推出通用深度研究系统:可接入任何 LLM,支持个人定制
英伟达也做深度研究智能体了。最新论文介绍了英伟达的通用深度研究(UDR)系统,该系统支持个人定制,可接入任何大语言模型(LLM)。这意味着它能够围绕任何语言模型运行,用户可以完全自定义深度研究策略,并交给智能体实现。为展...[详细]
-
重塑记忆架构:LLM正在安装「操作系统」
众所周知,现代大型语言模型(LLM)的上下文窗口普遍有限 —— 大多数模型只能处理数千到数万 token,比如早期的 GPT-3 仅有~2,048 token。虽然近期有些模型已经拓展到了百万级甚至千万级 token 窗口(如 Meta 的...[详细]
-
AI进化时间表已现,LLM每7个月能力翻倍,2030年职场不复存在?
LLM智能每7月翻倍,2030年颠覆人类工作LLM正以前所未有的速度进化:METR发现,它们的智能每7个月就翻一番。到了2030年,一个模型可能只需几小时,就能搞定人类工程师几个月的工作。别眨眼,你的岗位或许已在倒计时中...[详细]
-
别跟LLM太交心,斯坦福新研究:AI不能完全取代人类心理治疗师
AI被爆“过度谄媚”,迎合用户妄想小心!AI的“贴心回应”可能致命。最新研究表明包括ChatGPT和Llama在内的流行AI模型在处理抑郁、妄想等复杂心理问题时,竟然频频输出危险建议。这项研究涉及来自斯坦福大学、卡内基梅...[详细]
-
LeCun团队揭示LLM语义压缩本质:极致统计压缩牺牲细节
人类重语境,LLM重数据当我们读到“苹果”“香蕉”“西瓜”这些词,虽然颜色不同、形状不同、味道也不同,但仍会下意识地归为“水果”。哪怕是第一次见到“火龙果”这个词,也能凭借语义线索判断它大概也是一种水果。这种能力被称为语...[详细]
-
Bengio亲手戳穿CoT神话,LLM推理是假象,25%顶会论文遭打脸
CoT推理全靠「演技」原来,CoT推理竟是假象!Bengio带队最新论文戳穿了CoT神话——我们所看到的推理步骤,并非是真实的。不仅如此,LLM在推理时会悄然纠正错误,却在CoT中只字未提。图灵奖大牛Bengio新作上线...[详细]
-
超CLIP准确率11%,伯克利港大阐明「LLM文本-视觉」对齐深层机制
LIFT冻结LLM提升多模态对齐,增强组合语义理解,简化训练。【导读】多模态对齐模型借助对比学习在检索与生成任务中大放异彩。最新趋势是用冻结的大语言模型替换自训文本编码器,从而在长文本与大数据场景中降低算力成本。LIFT...[详细]
-
信息过载时代,如何真正「懂」LLM?从MIT分享的50个面试题开始
50 个问题带你回归技术本质 。人类从农耕时代到工业时代花了数千年,从工业时代到信息时代又花了两百多年,而?LLM?仅出现不到十年,就已将曾经遥不可及的人工智能能力普及给大众,让全球数亿人能够通过自然语言进行创作、编程和推理...[详细]
-
18万引大牛Sergey Levine:不是视频模型“学习”慢,而是LLM走捷径
为什么语言模型能从预测下一个词中学到很多,而视频模型却从预测下一帧中学到很少?这是UC伯克利大学计算机副教授Sergey Levine最新提出的灵魂一问。他同时是Google Brain的研究员,参与了Google知名机器人...[详细]
-
LLM神话破灭?苹果论文最新实锤:难以实现真正智能
在苹果年度全球开发者大会(WWDC)前夕,苹果公司的处境并不轻松。尽管过去数月持续放出关于人工智能(AI)功能的预告,包括“更聪明的 Siri”即将上线,但承诺尚未兑现,技术展示寥寥,让苹果在日益激烈的 AI 竞赛中显得很被动...[详细]
-
LLM「想太多」有救了,高效推理让大模型思考过程更精简
大模型虽然推理能力增强,却常常「想太多」,回答简单问题也冗长复杂。Rice大学的华人研究者提出高效推理概念,探究了如何帮助LLM告别「过度思考」,提升推理效率。LLM的推理能力显著增强,然而,这个「超级大脑」也有自己的烦...[详细]