谷歌Jeff Dean和多位图灵奖得主合著论文,全面剖析了AI
谷歌Jeff Dean和多位图灵奖得主合著论文,全面剖析了AI
  • 2026-04-17 16:41:50
    来源:班荆道旧网

    谷歌Jeff Dean和多位图灵奖得主合著论文,全面剖析了AI

    字体:

    新智元报道

    编辑:艾伦

    【新智元导读】图灵奖得主John Hennessy与谷歌首席科学家Jeff Dean联手,拒绝「AI末日论」与盲目狂热,发布重磅报告规划务实路线。本文深度解读这一行动蓝图:如何打破「饭碗焦虑」,利用AI重塑教育与医疗,以及Laude研究所如何通过「实战」项目定义未来。拒绝空谈,这是一场关乎十亿人命运的技术突围。

    在关于AI的讨论甚嚣尘上之时,我们仿佛置身于两个极端阵营的对立之中。

    一方是极度狂热的技术信徒,他们恨不得明天就快进到那个无需劳动、资源无限的乌托邦;

    另一方则是忧心忡忡的末日预言者,在他们眼中,正在进化的代码或许就是人类文明的丧钟。

    这种非黑即白的争吵,虽然能在社交媒体上博取眼球,却无助于解决眼前的问题。

    幸运的是,包括谷歌首席科学家Jeff Dean、图灵奖得主John Hennessy等计算机科学界的一众顶级大脑,并没有陷入这种口水战。

    他们联合发布了一份分量极重的报告《塑造AI对数十亿人的影响》。

    他们的态度既不盲目狂欢,也不贩卖焦虑,而是选择了一条更为艰难的中间道路:务实。

    既然技术进步的洪流不可阻挡,与其在岸边争论水流的善恶,不如跳下去修筑河道。

    这份报告,就是他们绘制的河道蓝图。

    报告官网:https://shapingai.com/

    打破「饭碗焦虑」的迷思

    ChatGPT横空出世后,很多人的第一反应是恐惧:机器这么能干,我还能干什么?

    这种焦虑源于一种直觉:工作总量是一定的,机器干得多了,人干的就少了。经济学家把这种直觉称为「劳动总量谬误」。

    历史数据给了我们一个反直觉的答案。

    回看1970年,那时的程序员是稀缺物种,编程是极少数精英的特权。

    按照「替代逻辑」,随着编程工具越来越先进,效率提升了成千上万倍,我们需要的程序员应该大幅减少才对。

    但现实恰恰相反,2020年美国的程序员数量是1970年的11倍。

    同样的,尽管自动驾驶技术已经非常成熟,现代飞机驾驶舱机组人数远少于几十年前,但飞行员的数量却增加了8倍。

    秘密在于「需求弹性」。

    在软件开发、医疗服务、教育这些领域,人类的需求就像一个深不见底的池子。

    当技术降低了成本,被压抑的需求就会井喷式爆发。

    以前只有大公司用得起软件,现在连家里的灯泡都能联网;

    以前只有富人能享受私人医疗,未来可能每个人都能拥有可负担的个性化医疗服务/AI健康助理。

    需求的增长速度远远超过了效率提升带来的替代效应,结果反而创造了更多岗位。

    当然,并非所有行业都是如此。

    农业就是一个反例,无论粮食多便宜,人一天只能吃三顿饭。

    因此,技术的使命非常明确:我们要把AI引导到那些需求还有巨大增长空间的领域,去把蛋糕做大,而不是在有限的盘子里争抢。

    更令人振奋的是,AI正在成为缩小贫富差距的利器。

    在一项针对咨询顾问的实验中,原本表现平平的员工在AI辅助下,工作效率提升了惊人的43%,而顶尖高手的提升幅度只有17%。

    这意味着,AI就像一套「外骨骼」,能帮助普通劳动者迅速跨越技能门槛,让他们在职场中拥有与精英一较长短的能力。

    教育的回归

    从「工厂」到「私塾」

    现代教育体系在某种程度上像是一条工业流水线:统一教材、统一进度、统一考核。虽然高效,却难以顾及每个孩子的个性。

    中国古人推崇「因材施教」,但在师资匮乏的现实面前,这往往是一种奢侈的理想。

    AI的出现,让「为每个孩子配一位私教」成为可能。

    哈佛大学的一项物理课实验提供了有力证据。

    使用AI导师辅助学习的学生,不仅学习成效是传统课堂的两倍,而且所花时间减半。

    这并非要用机器取代老师,而是让老师从批改作业、填写报表这些繁琐事务中解脱出来。

    设想一下,未来的教育场景将会发生怎样的质变:AI负责知识点的精准传递和习题的个性化推荐,而人类教师则回归育人的本质——去点燃学生的好奇心,去关注孩子的情绪变化,去培养那些机器无法传授的价值观与创造力。

    报告更进一步提出了「全球导师」的宏愿。

    在地球上那些师资极度匮乏的角落,一部智能手机里的AI导师,或许就是当地孩子改变命运的唯一那扇窗。

    科学的加速器

    解开上帝的密码锁

    如果说教育关乎未来,那么科学探索则关乎人类的生存边界。

    AI正在彻底改变科学家探索世界的方式。

    生物学领域困扰人类50年的「蛋白质结构预测」难题,被AI在短短几年内攻克。

    AlphaFold不仅仅是一个软件,它相当于给全人类的生物学家发了一副高倍显微镜,让我们能看清生命微观齿轮的咬合方式。

    这意味着新药研发、疾病治疗的周期将被极度压缩。

    在能源领域,核聚变反应中极不稳定的等离子体,曾像一团无法驯服的烈火。

    如今,DeepMind的AI系统已经学会了如何通过磁场精准控制它,让我们离清洁能源的终极梦想又近了一步。

    还有气象预测,AI模型GraphCast现在的运行速度比传统超级计算机快成千上万倍,且在预测台风路径等极端天气时更为精准。

    未来的科学家将不再是孤独的苦行僧。

    他们将拥有一个不知疲倦的AI合作伙伴,它能阅读人类所有的文献,能跨越学科壁垒寻找灵感,甚至能提出人类意想不到的假设。

    治理的智慧

    寻找平衡点

    技术是中性的,但人性是复杂的。

    面对AI可能带来的虚假信息、偏见和安全隐患,我们该如何应对?

    报告提出了一种务实的治理思路。我们不需要为AI发明一套全新的法律体系,现有的反欺诈、反歧视法律在很大程度上依然适用。

    关键在于如何灵活地执行。

    比如,对于「深度伪造」带来的信任危机,报告建议成立类似「反兴奋剂机构」的国际组织,即「虚假信息侦探社」。

    当社会出现重大谣言或选举受到干扰时,这个中立机构可以用最先进的技术手段进行权威鉴定,让真相跑赢谎言。

    行胜于言

    Laude研究所的实验

    这群顶尖科学家在通过行动改变现状。

    Laude研究所成立了,并发起了资助计划。

    这不同于传统的学术拨款。

    他们拿出的不仅是钱,还有稀缺的算力资源和工程支持。

    他们要求受资助者不能只发几篇论文了事,必须交付可用的代码、工具或者产品。

    其中一个核心方向是「制定度量衡」。

    现在的AI好不好,往往是科技巨头自己出题自己考。

    Laude研究所支持了一批独立的评估项目,例如:

    CodeClash:这是一个让AI互相对抗的竞技场。不同模型的AI在这里编写代码攻防,以此测试它们的真实能力,而不是靠死记硬背题库拿高分。

    BizBench:模拟真实的白领工作流,测试AI是否真能胜任复杂的商业分析和图表制作,而不仅仅是写段俏皮话。

    Terminal Bench:让AI直接面对真实的计算机命令行环境,去解决那些让工程师头秃的系统级难题。

    这种独立、公开、接近实战的评估体系,是防止AI技术被少数巨头垄断解释权的关键。

    我们正站在一个微妙的历史节点。

    AI不是某种从天而降、不可抗拒的神力,它更像是一块正在被锻造的钢铁。

    它的形状,取决于我们此刻的敲打。

    不需要盲目崇拜,也不必惊慌失措。

    通过将AI引导至需求广阔的领域,通过让它成为教育和医疗的普及工具,通过建立公正透明的规则,我们可以驯服这股力量。

    技术终究只是容器,它的温度,取决于注入其中的人性。

    参考资料:

    https://shapingai.com/

    https://arxiv.org/abs/2412.02730

    【纠错】
    【责任编辑:我就和妮嘿嘿嘿】