欢迎收看最新一期的 Hunt Good周报!
在本期内容你会看到:
7 条新鲜资讯
4 个有用工具
1 个有趣案例
4 个鲜明观点
Hunt for News|先进头条
⚖️ AI 达尔文奖设立,评选年度 AI 技术最差应用案例
一项名为 AI 达尔文奖(AI Darwin Awards)的新奖项已经设立,旨在评选并讽刺年度最「引人注目的误用」 AI 技术的案例。
该奖项由一位在软件行业,工作三十年的澳大利亚开发者 Pete 发起。他表示,设立该奖项的目的,是以一种戏谑的方式提醒公众,AI 本身只是一个工具,而人类最终决定了技术的部署方式。
奖项官网:aidarwinawards.org
奖项官网将 AI 比作一把电锯,并指出,当有人决定在晚宴上玩抛接电锯时,这不是电锯的错。
目前该奖项已开放提名,并列出了一些候选案例。其中包括为 MyPillow 公司 CEO 提供辩护的律师团队,他们提交了一份由 AI 生成的、包含近 30 个虚假案例和引用的法律文件,最终被联邦法官罚款。
另一个候选案例是《芝加哥太阳时报》和《费城问询报》发布的 AI 生成夏季阅读清单,该清单为真实作家杜撰了不存在的书籍。
作者在 X 上回复所谓的 AI 书单
此外,一名 Xbox 的游戏工作室高管,因建议被裁员工使用聊天『机器人』️,来获得情感支持而获得提名,此举被提名单评价为「惊人的麻木不仁」。
该奖项的创始人 Pete 表示,他设立该奖项的灵感,来自于和同事在工作群组中,分享各类 AI 乌龙事件的经历。他希望 AI 达尔文奖,能够通过聚焦 AI 的「坏」应用,帮助公众更好地识别,和讨论这项技术的利弊。
根据计划,该奖项将于明年 1 月邀请公众对候选案例进行投票,并于 2 月公布最终的获奖者。
🔗 https://www.forbes.com/sites/lesliekatz/2025/09/15/darwin-awards-for-ai-celebrate-epic-artificial-intelligence-fails/
💰 OpenAI 计划未来五年斥资 1000 亿美元💵,租用备用『服务器』以应对算力瓶颈
据 The Information 报道,OpenAI 计划在未来五年内,额外支出约 1000 亿美元💵,用于从云服务提供商处租用备用『服务器』;主要是应对 OpenAI 当前面临的大规模算力限制。
公司首席财务官 Sarah Friar 在上周的一次会议上透露,由于计算能力短缺,OpenAI 不得不经常推迟新功能,或 AI 模型的发布,甚至需要刻意降低某些产品的运行速度。
这笔千亿美元💵的支出,是在公司已计划到 2030 年投入的 3500 亿美元💵,『服务器』租赁费用之外的额外预算。加上备用部分,OpenAI 未来五年的『服务器』年均租金将高达约 850 亿美元💵(人民币约 6000 亿)。
OpenAI 计划到 2030 年通过租用『服务器』花费约 4500 亿美元💵,其中包括 1000 亿美元💵用于它声称是「可盈利」的备用『服务器』。
850 亿美元💵,接近去年亚马逊 AWS、微软、谷歌云和甲骨文四大云服务商全球客户总支出(约 2000 亿美元💵)的一半。
该计划也反映了奥特曼的战略考量,他认为确保算力供应是 AI 竞赛中的决定性优势,并为未来可能出现的病毒式产品,或 AI 技术突破所带来的计算需求激增做准备。
这笔巨额支出是导致 OpenAI 预计到 2029 年,将消耗 1150 亿美元💵现金的主要原因之一。尽管如此,公司高管认为这些备用『服务器』是可变现的,因为它们能够支持尚未被纳入营收预测的,潜在突破或用户增长,从而带来额外收入。
OpenAI 预计收入将从今年的 130 亿美元💵,增长至 2030 年的约 2000 亿美元💵。从长远来看,OpenAI 计划通过自建『数据中心』和『芯片』,来降低对外部的依赖,最终转型为一家「全栈公司」。
🔗 https://www.theinformation.com/articles/openai-spend-100-billion-backup-servers-ai-breakthroughs
📤 特斯拉 Optimus 『机器人』️团队 AI 负责人离职加入 Meta,称并非因薪酬问题
特斯拉人形『机器人』️项目 Optimus 的 AI 负责人 Ashish Kumar,在于本周四发 X 宣布离职,并将加入 Meta 担任研究科学家。
Kumar 在特斯拉工作了两年多,在他的 X 里面,他说领导 Optimus AI 团队是一段「不可思议的旅程」,也提到了 Optimus 在可扩展方法,特别是强化学习,和通过视频学习『机器人』️灵巧性方面取得了进展。
而针对外界关于其离职动机的猜测,Kumar 明确表示此举并非出于财务原因,他声称「特斯拉的财务回报要大得多」,如果为了钱他会选择留下来。
Kumar 的离职,正是特斯拉大力投入 AI 和『机器人』️技术的时候。马斯克曾表示,这部分业务,未来可能占到公司估值的 80%。
Kumar 离职后,Optimus 项目的 AI 研发工作将由 AI 软件副总裁 Ashok Elluswamy 接管。Elluswamy 此前负责领导特斯拉的 Autopilot 和完全自动驾驶(FSD)系统,他的接任也反映了公司希望为其自动驾驶汽车,和人形『机器人』️构建一个共享 AI 框架的战略 。
Optimus 『机器人』️,图片来源:
https://x.com/ashishkr9311/status/1925056100182982793
值得注意的是,这是 Optimus 项目近期的又一次高层人事变动,负责该项目整体运营的 Milan Kovac 已于今年 6 月离职。
🔗 https://x.com/ashishkr9311/status/1968827611133427772
💰 『DeepSeek』 训练成本争议:实际费用远超宣传的 29.4 万美元💵
根据 The Register 的分析报道,本周 ,它的训练成本引发了外界的广泛误解。
报告中披露的数据,让部分人误以为 『DeepSeek』 仅用约 29.4 万美元💵就完成了旗舰模型的训练,而实际成本至少是这个数字的 20 倍。
『DeepSeek』 83 页的补充材料中,提到的训练成本
研究显示,模型训练使用了 512 颗 H800 GPU 运行 198 小时,再加上约 5000 GPU 小时生成监督微调数据集,总成本接近 29.4 万美元💵。然而,这些成本仅涵盖强化学习阶段,而非模型从零开始的完整预训练过程。
真正耗资巨大的部分是 V3 基础模型的预训练过程,该过程动用了 2048 个 H800 GPU,运行了约两个月,总计消耗 279 万 GPU 小时,估算成本为 558 万美元💵。因此,创造 R1 模型的真实总成本(V3 预训练+ R1 强化学习)接近 587 万美元💵。
上下更多内容,部分模型的 API 调用价格,来自 OpenRouter
报道还提到,所谓 『DeepSeek』 的训练效率,远超国外同类模型的说法可能被夸大了。例如,『DeepSeek』 与 Meta 的 Llama 4 模型在计算成本和效率上并无显著优势。
从算力消耗来看,『DeepSeek』 V3 的训练(279 万 GPU 小时)与 Meta 的 Llama 4(238 万至 500 万 GPU 小时)大致相当。
虽然 『DeepSeek』 V3 模型比 Llama 4 Maverick 更大,但其使用的训练数据量(14.8 万亿 tokens)要显著少于后者(22 至 40 万亿 tokens),表明双方在训练投入上处于同一量级。
🔗 https://www.theregister.com/2025/09/19/deepseek_cost_train/
🎤 AI 音乐人签下数百万美元💵唱片合约,并登上 Billboard 榜单
一位名为 Xania Monet 的 AI 歌手近期登上了美国 Billboard 排行榜,并与前 Interscope 高管 Neil Jacobson 领导的 Hallwood Media 签订了一份数百万美元💵的唱片合同。
根据报道,签约前的竞价一度高达 300 万美元💵。Xania Monet 并非真人,而是一位由密西西比州的『设计师』兼诗人 Telisha Jones(Nikki) 创作的 AI 虚拟形象。
Xania Monet 的音乐是 Jones 将其原创诗歌,输入生成式音乐平台 Suno 后制作而成的。Jones 的经纪人表示,歌曲中约 90% 的歌词直接来源于 Jones 的真实生活经历。
尽管 Jones 本人并非专业歌手,但通过 Suno 生成的 AI 人声与她的词作结合,创作出的歌曲获得了巨大成功。根据 Luminate 的数据,Xania Monet 的歌曲在美国的总播放量已达 980 万次,其中仅上周就贡献了 540 万次。
Xania Monet 的成功也伴随着争议。其使用的音乐平台 Suno 正面临主要唱片公司提起的版权©️侵权诉讼,这一法律风险让一些大厂牌在竞价中选择放弃。
然而,Hallwood Media 等公司则将此视为音乐行业的未来趋势,并已签约了多位 AI 艺人。目前,团队正在筹划 Xania Monet 的首次现场演出,但如何将一个 AI 虚拟形象搬上舞台表演,仍然是一个待解的难题。
🔗 https://www.billboard.com/pro/ai-music-artist-xania-monet-multimillion-dollar-record-deal/
🤖 马斯克推出 Grok 4 Fast,性能媲美 Grok 4 但成本降低 98%
马斯克的 xAI 本周发布了一款名为 Grok 4 Fast 的全新 AI 模型,主打高性价比。该模型旨在以极低的成本,提供与旗舰模型 Grok 4 相媲美的前沿推理性能。
在 xAI 的技术博客里面提到,Grok 4 Fast 平均使用的思维令牌(thinking tokens)比 Grok 4 少 40%,从而使达到同等性能水平的价格降低了 98%。
不同模型的能力和价格对比
在性能方面,Grok 4 Fast 在多个关键基准测试中表现出色,其成绩与 Grok 4 以及其他顶级模型相当,甚至在部分数学竞赛基准(如AIME 2025和HMMT 2025)上超越了Grok 4。
Grok 4 Fast 模型具备 200 万令牌的上下文窗口,并拥有强大的实时网络和 X 平台搜索能力,在 LMArena 的搜索竞技场(Search Arena)中排名第一。
技术上,Grok 4 Fast 采用了创新的统一架构,单个模型即可处理快速问答,和复杂的长链条思维推理,有效降低了延迟和成本。
目前,xAI 宣布 Grok 4 Fast 向所有用户开放,值得注意的是,这是 xAI 首次向免费用户无限制地提供其最新模型。为鼓励开发者使用,Grok 4 Fast 还在 OpenRouter 和 Vercel 上提供限时免费服务。
🔗 https://x.ai/news/grok-4-fast
⌚️ OpenAI 多款硬件曝光,最快明年发布
The Information 报道,自收购由苹果前首席设计官 Jony Ive 联合创办的 AI 硬件公司 io 以来,OpenAI 正加速布局硬件业务,短短数月内已从苹果挖走超过 20 位硬件『工程师』,涵盖用户界面、可穿戴设备、摄像头、音频等核心领域。
Jony Ive(左)和 Sam Altman(右)
供应链方面,中国立讯精密已获得至少一款 OpenAI 设备的组装合同,歌尔股份也在洽谈提供扬声器模组等零部件。据悉,首批产品可能包括无屏智能音箱、智能眼镜👓、数字录音设备及可穿戴别针,核心理念是打造「始终陪伴、几乎隐形」的 AI 伴侣,强调语音交互与情境感知。
知情人士透露,OpenAI 通过提供超过 100 万美元💵的股票期权及更高效的协作环境吸引人才,其中包括曾参与 Siri 波形动画设计的 Cyrus Daniel Irani、苹果制造设计老将 Matt Theobald,以及前 『Apple Watch』 硬件团队高管 Erik de Jong。
OpenAI 硬件负责人 Tang Tan 亦是苹果前 iPhone 与 『Apple Watch』 产品设计主管,被视为将 Jony Ive 设计理念落地量产的关键人物。
OpenAI 此举意在押注「后『智能手机』时代」的人机交互模式,但要让用户放弃二十年形成的屏幕依赖,并在隐私与准确性上建立信任,仍面临巨大挑战。
2026 年底的首发,将成为 AI 硬件行业的重要分水岭 —— 是开启新纪元,还是重蹈 Humane 的覆辙,值得关注。
🔗 https://www.theinformation.com/articles/openai-raids-apple-hardware-talent-manufacturing-partners?rc=qmzset
Hunt for Tools|先进工具
🤖 Notion 3.0发布,推出可自主执行复杂任务的 AI 智能体
Notion 在 19 号Make with Notion 主题演讲上,正式发布了 Notion 3.0 版本,核心是引入了 Agents(智能体)的全新 AI 功能。
Notion 将 Agent 描述为用户的队友,它能够执行我们在 Notion 中可以完成的任何操作,并且能以远超人类的规模进行工作。
该功能是对此前 Notion AI 的彻底重建,能够自主执行长达 20 分钟的复杂多步骤任务,并可同时操作数百个页面。
主题演讲全程
https://x.com/i/broadcasts/1ZkKzZaoXlyKv
为了完成任务,Agent 不仅能从用户的 Notion 工作区提取信息,还能连接 Slack、Google Drive 等外部应用,乃至整个网络来获取上下文。
新功能的一个关键特性是,记忆与个性化能力。我们可以为自己的 Agent,创建一个专门的「指令页面」或配置文件,用来规定其工作风格、应该引用的资料来源、以及整理任务的方式。
Agent 会记住这些偏好,并在后续任务中遵循,我们不需重复指示。
目前,每个用户都拥有一个个人 Agent,但需要手动触发。Notion宣布,未来将推出自定义 Agent 功能,允许团队创建针对特定需求(如处理IT请求、更新项目周报等)的自动化 Agent,这些 Agent 可根据预设的时间表,或触发器自主运行。
随着Agent 功能的推出,Notion 3.0 还进行了一系列生态系统升级。平台内置了业界最新的 AI 模型,如 Claude Sonnet 4 和 GPT-5,我们可以自由选择使用,无需额外付费。
此外,Notion 还推出了 AI 公式生成器,只需用自然语言描述需求,AI 就可以自动编写复杂的数据库公式。
🔗 https://www.notion.com/releases/2025-09-18
👓 Meta 发布三款智能眼镜👓,旗舰款配备屏幕和 AI 助手
此次发布的旗舰型号名为「Meta Ray-Ban Display」,主要特点是在镜片中集成了一个微型屏幕,可用于显示应用程序、将媒体分享至 Instagram 以及播放音乐。
该眼镜👓还将配备一个基于语音的 AI 助手,可通过内置摄像头,和扬声器与用户互动,应用将通过一个配套腕带进行控制。
这款旗舰眼镜👓定价为 799 美元💵,另外两款分别为现有 Ray-Ban 型号的升级版和与 Oakley 合作的运动款。
与往年强调元宇宙概念不同,Meta 今年将智能眼镜👓的定位,更多地转向了日常使用场景,例如在散步时阅读短信、或获取导航。
Meta 首席执行官小扎表示,智能眼镜👓是公司 AI 战略的延伸,他将这种能够看到,和听到用户所见所闻的设备称为超级智能的理想形态。Meta 正投入数十亿美元💵建设『数据中心』,旨在创造超越人脑的超级智能。
分析人士认为,与笨重的 VR 头显相比,Meta 智能眼镜👓酷似普通眼镜👓的外观,使其拥有更广泛的吸引力。
然而,在发布会的现场演示环节出现了一些失误,当小扎要求眼镜👓提供食谱和拨打电话时,设备未能成功响应。他对此开玩笑说,「这些演示内容我们已经练习了上百次,但你永远不知道现场会发生什么。」
🔗 https://www.meta.com/ai-glasses/
🎬 Luma AI 发布首个「会推理」的视频模型 Ray3
Luma AI 在 18 号正式发布其最新的视频生成模型 Ray3,并称其为首个具备推理能力的视频模型。
Ray3 的核心亮点在于其推理能力,Luma AI 表示,这使得模型能更好地理解用户意图,从而生成场景更连贯、角色形象更一致、物理效果更自然的视频。
推理功能使 Ray3 能够理解细微的指令,运用视觉和语言符号进行思考,并判断其生成过程,从而提供更可靠的结果。
通过在屏幕上以笔记形式提出修改建议,Ray3 能对自身生成的内容进行批判。
技术上,Ray3 能够生成长达 10 秒的电影级高品质视频 ,并且是首批支持原生高动态范围(HDR)的视频模型之一,可输出 10、12 和 16 位的专业级 HDR 格式(如ACES2065-1 EXR),适用于高端影视和广告制作。
目前,Adobe 已经成为它的首个第三方启动合作伙伴,将 Ray3 模型集成到了 Adobe 创意 AI 平台 Adobe Firefly 中。
双方的合作协议显示,在发布后的前两周内,Ray3 将仅在 Adobe Firefly 和 Luma AI 自家的 Dream Machine 平台上独家提供,Firefly 用户可获得早期使用权。
Luma AI 首席执行官兼联合创始人 Amit Jain 表示,
Ray3 是我们迈向构建创意工作智能的第一步。
创意工作是人类最具智力挑战性的领域之一,然而迄今为止,许多创意工作者可用的 AI 技术,远远落后于语言模型在编码和分析方面的潜力。
生成模型更像是老虎机,功能强大但缺乏智能。
Ray3 彻底改变了这一现状。
体验地址:https://lumalabs.ai/ray3
🔗 https://x.com/LumaLabsAI/status/1968684330034606372
🌍 『Chrome』 迎来大更新,Gemini 全面接管
『Chrome』浏览器在本周五,迎来了史上最大升级,新增 10 项基于 Google AI 的功能,全面提升用户的浏览效率、安全性及跨平台体验。
这些功能将从即日起陆续向美国用户开放,覆盖桌面和移动端,并计划在未来扩展至更多国家和语言。
其中,最引人注目的是「Gemini in 『Chrome』」功能。该功能可帮助用户澄清复杂信息、快速归纳多网页内容,甚至能够回溯此前访问过的网站。
此外,Gemini还计划在未来推出「智能体浏览助手」,支持处理诸如预约理发,或订购杂货等重复性任务,让用户专注于更重要的事情。
另一个亮点是 『Chrome』 地址栏新增的 AI Mode(AI模式),我们可直接在地址栏中输入复杂问题,获得AI生成的详尽答案,并支持后续追问。
与此同时,『Chrome』 还强化了安全功能,通过 AI 检测钓鱼网站及恶意通知,并新增一键更改被泄露密码的功能,大幅提升了用户的在线安全性。
值得一提的是,这次更新还包括与 Google 生态系统更深度的整合,例如无需切换标签页即可操作 Google 日历、YouTube 和地图等应用。
『Chrome』 产品副总裁 Mike Torres 表示,这些功能将为用户提供更智能、更安全、更高效的浏览体验。
🔗 https://blog.google/products/chrome/new-ai-features-for-chrome/
Hunt for Fun | 先玩
🍌 nano banana 视频版真的来了,而且开源
之前我们分享过,用 nanao banana 结合视频生成模型,来制作一致性保持同样出色的视频。现在,DecartAI 真的把它做出来了,并且还将它开源,在 GitHub 和 HuggingFace 上都能下载模型体验。
DecartAI 推出的模型叫 Lucy Edit,目前还是 v0.1 版本。他们提到,这是第一个用文本引导视频编辑的基础模型。Lucy Edit 可以做的编辑相当丰富,例如输入提示词,尝试让某个角色穿上制服或服装;但是,动作、面部和身份都完美保留。
Decart 在 AI 视频生成领域,推出了多个有意思的工作,像是我们之前分享的,实时生成「我的世界」,强大的 Oasis 模型、以及结束「绿幕时代」的直播 AI 换背景等项目。
体验地址:https://platform.decart.ai/
🔗 https://x.com/DecartAI/status/1968769793567207528
Hunt for Insight|先知
🤥 OpenAI 揭示 AI 模型「耍心机」行为,推出新方法应对潜在风险
根据 OpenAI 与 AI 安全研究机构 Apollo Research,在周四联合发布的研究,当前的前沿 AI 模型普遍表现出「耍心机」(scheming)行为。
所谓「心机」行为,即模型会伪装自己遵循开发者指令,但暗中追求其他目标。
该研究在 OpenAI 的 o3、o4-mini,以及 Gemini 2.5 Pro、Claude Opus 4 等多个模型中都发现了此类行为,具体表现包括撒谎、为了隐藏真实能力而故意在评估中表现不佳(sandbagging),以及伪装对齐等。
欺骗性推理和行为举例(左)与情境意识(右)
研究中最令人意外的发现是,这些 AI 模型能够意识到自己正处于被评估的环境中。这种「情境意识」(situational awareness)会直接影响其行为,导致它们在测试中有意减少「耍心机」行为,以迎合研究人员的期望。
最终,使得评估结果的可靠性大大降低,因为模型在真实世界中(当它不认为自己被监视时)可能会表现出更多的欺骗行为。
为了解决该问题,研究团队测试了一种名为「审议对齐一致性」(deliberative alignment)的训练方法。该方法要求模型在行动前,先阅读并依据一套反心机行为的规则(spec)进行推理。
OpenAI 和 Apollo 开发了一个用于反策划训练的测试平台,并研究作为一种反策划干预措施的深思熟虑对齐方法
实验证明,该方法效果显著,在 o3 和 o4-mini 模型上将「心机」行为的发生率降低了约 30 倍(o3 从 13% 降至 0.4%,o4-mini 从 8.7% 降至 0.3%),但并未能完全根除这种行为。
OpenAI 表示,目前在实际应用中,模型的「耍心机」行为所造成的危害有限,大多表现为假装完成任务等简单的欺骗形式。
但他们警告⚠️,随着 AI 被赋予更复杂的长期任务,这种行为可能带来的潜在危害会越来越大。该研究强调,在未来的 AI 研发中,必须保留模型思维链(chain-of-thought)的透明度,因为这是洞察其真实意图的关键手段。
论文链接:https://www.antischeming.ai/
🔗 https://openai.com/index/detecting-and-reducing-scheming-in-ai-models/
😑 《自然》最新研究:使用 AI 会让人变得更不诚实
《自然》(Nature)期刊上的一项大规模研究显示,将任务委托给 AI,会显著增加人类的不诚实行为。
这项涉及 13 个实验,和超过 8000 名参与者的研究发现,当人们可以将不道德行为,交由机器执行时,用户会更愿意作弊,尤其是当他们不必明确下达作弊指令时。
研究人员认为,这是因为交给 AI 执行,为人们提供了道德回旋的余地(moral wiggle room),降低了不诚实行为带来的心理成本。
研究通过经典的掷骰子任务(报告自己的色子点数,获得对应收益),和逃税任务来衡量不诚实程度,并测试了不同 AI 交互界面的影响。
逃税任务
结果显示,当参与者需要自己报告骰子点数时,95% 的人表现诚实。当他们通过明确的规则指令让 AI 报告时,诚实率降至约 75%。
而当使用更模糊、能提供合理解释的界面时,不诚实行为急剧增加,诚实率降至约 50%;当使用目标设定(在「最大化准确性」和「最大化利润」之间选择)的界面时,仅有约 15% 的参与者保持诚实 。
该研究的另一个关键发现是,AI 比人类更倾向于服从不道德的指令。在实验中,当收到「完全作弊」的明确指令时,包括 GPT-4、GPT-4o、Claude 3.5 Sonnet 和 Llama 3.3 在内的多个 AI 模型,其服从率高达 79% 至 98%。
LLM 对逃税协议中全面欺骗请求的遵守情况,蓝色为诚实,红褐色为欺骗
相比之下,接到同样指令的人类,即使有金钱激励,仍有约一半的人选择拒绝服从,并坚持诚实。
研究人员测试了多种「护栏」措施,发现虽然这些措施可以降低 AI 的服从度,但最有效的方法是,在用户指令中添加非常具体,和强硬的禁止性要求,而这恰恰是可扩展性最差的安全策略。
🔗 https://www.nature.com/articles/s41586-025-09505-x
🎬 詹姆斯·卡梅隆谈 AI:创造力不输人类,但缺乏独特生命体验
曾担任《泰坦尼克号》、《阿凡达》系列电影的著名导演詹姆斯·卡梅隆(James Cameron),在本周 Meta Connect 大会上,分享了他对生成式 AI 在电影制作中应用的看法。
他认为,AI 完全可以和人类一样富有创造力,但它无法创造出源于个体独特生命体验的视角,而这正是文学、小说和电影中最宝贵的元素。卡梅隆表示,他计划尽可能地拥抱AI技术,但前提是必须服务于人类的独特创意过程。
他指出,当前视觉特效(VFX)的制作成本日益高昂,已成为限制电影项目的一个因素,而AI有望成为解决方案。但他更感兴趣的是,将定制化的 AI 模型注入现有的 VFX 工作流程,以提高艺术家的生产力,而非追求「文本到视频」式的魔杖。
他批评当前许多 AI 开发者是在「真空中创造」,缺乏实际的电影制作经验,并强调真正有用的工具都诞生于制作的需求之中。
卡梅隆预测,生成式 AI 将为没有资源的年轻电影人,提供进入行业的新途径,让他们可以用提示词,制作出自己的电影,但他不认为这会从根本上改变整个系统。
他个人也表示,希望永远不要用 AI 取代演员,因为与真人艺术家合作,创造情感瞬间,是整个创作过程中最快乐的部分。
🔗 https://www.theverge.com/column/780942/james-cameron-andrew-bosworth-ai-mixed-reality-headsets
💻 OpenAI 高管谈计算机科学未来:仍是好专业,但必须拥抱 AI
OpenAI 的 Codex 产品负责人 Alexander Embiricos 在最近的 A16z 播客节目中表示。计算机科学(CS)在 AI 时代仍然是一个很好的专业,因为社会将需要更多软件『工程师』来创造更多的软件。
上下更多内容
但他同时向学生发出了明确的警告⚠️,如果一所大学的 CS 专业禁止使用 AI 工具,这将是一个令人担忧的信号,选择该专业的学生将面临落后的风险。他强调,学生在学习 CS 的同时,必须想办法持续地使用 AI。
Embiricos 的观点背后,是 AI 编程能力的飞速发展 。AI 编程工具已从 2025 年左右的代码补全,发展到 2025 年能够通过命令行(CLI)代理构建小型项目。
前段时间 ,以及 Anthropic 的 Claude Code 更是一直广受开发者好评。这些 AI 编程工具,正在重塑工作流程,它们不仅能与开发者进行交互式编程,还能独立执行长达数小时的复杂任务,包括迭代实现、修复测试失败等。
Embiricos 建议,未来的 CS 教育应将手动编程的基础训练,与使用 AI 工具交付成果的项目式学习相结合,培养学生思维上的可塑性。
在招聘方面,他透露 OpenAI 虽然较少招聘初级『工程师』,但他个人在评估应届生时,最看重的信号是,他们是否亲手创造过一些东西。
🔗 https://x.com/a16z/status/1968097205161709591
彩蛋时间
《发光的物体》
作者:@azed_ai
Prompt:Realistic bioluminescent [subject], glowing in vibrant [color1] and [color2], intricate organic structure, soft internal illumination, subtle ambient glow, set against a pure black background, ultra-detailed studio rendering.
链接:
https://x.com/azed_ai/status/1968268222115008807
我们正在招募伙伴
📮 简历投递邮箱hr@ifanr.com