李飞飞:为什么人工智能的未来取决于人类保持控制

当李飞飞谈论人工智能时,她带着帮助塑造这一领域的人的重量。作为斯坦福大学的教授,以及推动ImageNet——这个催化深度学习革命的庞大视觉数据库——的先驱力量,李飞飞已经见证了人工智能从学术追求演变为改变文明的力量长达25年。她甚至坦言:“我从未预料到它会变得如此庞大。”在最近的一次广泛对话中,李飞飞反思了人工智能目前的状况、未来方向,以及人类的选择将决定其影响。

为什么李飞飞将人工智能视为人类的双刃剑

二十多年来,李飞飞观察了人工智能从实验室走向主流应用的轨迹。她强调一个关键事实:技术始终具有双重性。自文明之初,人类创造的工具大多被用作善,但它们也可能被故意武器化或带来意想不到的危害。人工智能也不例外。

李飞飞认为,此刻的不同之处在于人工智能的范围。“这是一项文明级别的技术,”她解释道。原因不仅仅在于其强大,而在于它的影响范围——以某种方式影响每个人的工作、生活、福祉和未来。这种普遍影响正是她坚持不能将监管权交给少数几家企业的原因。

李飞飞设想一个人工智能的格局,权力分散而非集中。“我希望这项技术能变得更加民主化,”她表示。“无论是谁开发或拥有它,都应该负责任地使用,每个人都应该有能力影响这项技术。”这种民主化不仅仅是理想——它关系到生存。当少数公司掌控过大时,责任就会分裂,偏差也更容易发生。

从干洗店到人工智能先驱:李飞飞的成长之路

理解李飞飞对人类能动性的信念,必须了解她的成长历程。她15岁时来到美国,英语有限,来自中国一个普通家庭。父母是收银员,经济拮据,最终在她大学时期开了一家干洗店。

“我开玩笑说我是CEO,”她回忆道。从18岁到研究生中期——七年时间,她远程管理这家店,处理客户电话、账单和质量检查,同时进行科学研究。这段双重生活锻炼了她的韧性。“你需要韧性去做科学研究,因为科学的道路是非线性的——没有现成的答案,”她反思。“作为移民,你还必须学会坚韧。”

她童年的偶像是物理学。在中国一个小城市长大,她在物理中找到了逃避——通向关于宇宙、原子核和存在本质问题的门。牛顿、麦克斯韦、薛定谔和爱因斯坦等人物激励她提出大胆的问题。但到了大学,她的探索转变为:*什么是智能?它是如何产生的?我们如何创造出有智能的机器?*这个问题成为她的北极星。

一次意外的桥梁带来了突破。当她研究人脑如何组织视觉概念时,遇到了WordNet——一种以关系而非字母顺序组织语义概念的语言分类体系。一个苹果和一个梨比苹果和洗衣机更接近。这一洞察激发了她的认识:如果语言描述数百万个对象,而智能生物吸收大量数据以理解世界,那么机器也需要具备这种能力。

这促成了ImageNet的诞生。在2000年代初,当数据集仅包含4到20个对象类别时,李飞飞和同事们创建了一个拥有22000个对象类别和1500万标注图像的数据库。这一规模的飞跃带来了变革——为深度学习的繁荣奠定了必要的基础。如今,李飞飞被公认为这一转变的设计者,“人工智能教母”,但她强调科学突破的合作性质。

空间智能:李飞飞对AI的下一愿景

在塑造了视觉智能之后,李飞飞现在领导着World Labs,一家专注于她所称的“空间智能”新前沿的创业公司。她的公司估值11亿美元,开发了Marble——一种从简单提示生成3D世界的尖端模型。

这个区别很重要。在职业的前半段,李飞飞专注于“看见”——被动接收信息。但演变告诉我们,智能与行动密不可分。我们看见,是因为我们移动;我们移动得更好,是因为我们看见。“我们如何建立这种联系?”她问。“我们需要理解三维空间,物体如何移动,我如何伸手去拿杯子——这所有的核心都是空间智能。”

Marble的应用涵盖多个行业。设计师在3D环境中构思;游戏开发者快速原型化场景;机器人在物理部署前在模拟中训练;教育者让学生沉浸在虚拟世界中理解复杂概念。想象阿富汗女孩在虚拟教室上课,或一个8岁的孩子“走进”细胞观察细胞核、酶和膜。这些都不是遥远的可能性,而是等待开发的即时应用。

李飞飞强调,空间智能是对语言智能的补充,而非取代。“空间智能和语言智能一样重要,它们相辅相成,”她坚持。

李飞飞如何应对AI对就业的威胁

关于AI最紧迫的问题之一是:它会毁掉工作吗?李飞飞毫不回避现实。在Salesforce,CEO马克·贝尼奥夫报告称,50%的客户服务岗位已经实现自动化。“这是真的发生的事,”李飞飞承认。

但她重新框架了讨论。每一次变革性技术——蒸汽机、电力、计算机、汽车——都带来痛苦,同时重塑劳动力。问题不只是工作多还是少,而是社会如何应对转型。“个人必须不断学习,企业和社会也有责任,”她主张。

这种共同责任不仅仅在企业层面。父母们不断问李飞飞:“我孩子应该学什么?将来会有工作吗?”她强调以人类发展为重,而非单纯的技术培训。“赋予他们自主性、尊严、好奇心,以及诚实、勤奋、创造力和批判性思维等永恒价值,”她建议。“不要只关心专业,要了解孩子的兴趣和性格,并引导他们。焦虑解决不了问题。”

但她最关心的是教师。“我唯一真正担心的是我们的老师。他们是社会的支柱,是培养下一代的关键。我们是否与他们有效沟通?是否让他们参与其中?”这个担忧凸显了她的信念:技术应增强人类能力,而非取代人类判断,尤其是在教育领域。

李飞飞关于AI的存在性风险:不是机器的问题

李飞飞的好友、深度学习先驱、诺贝尔奖得主杰弗里·辛顿估计,超级智能的AI导致人类灭绝的概率为10-20%。她尊重辛顿,但持不同意见。“关于‘取代人类’,这不是不可能,但如果人类真的面临危机,那一定是我们自己的错误,而不是机器造成的,”她说。

她的批评从机器转向治理。“为什么人类整体会允许这种事情发生?我们的集体责任、治理和监管在哪里?”她强调,担心超级智能的自主性,不如关注人类的集体行动。问题不在于机器能力,而在于人类的管理、国际合作和法规框架。

她承认,目前还没有正式的全球协议。“这个领域还处于起步阶段;我们还没有国际条约或那样的全球共识。但我认为,我们已经有了全球意识。”暗示:人类有时间在超级智能到来之前建立规制。

能源悖论:李飞飞在气候与创新之间的平衡

训练大型AI模型需要巨量电力。一些人警告,庞大的数据中心可能带来生态灾难。李飞飞不否认这个担忧,但她转而强调:“没人说这些数据中心必须用化石燃料。能源行业的创新将是关键。”

建设庞大数据中心的国家面临选择:审视能源政策和产业结构,或加快可再生能源投资。反常的是,AI繁荣可能成为推动绿色能源转型的催化剂。“这为我们提供了投资和发展更多可再生能源的机会,”她建议——对危机的务实再框架。

李飞飞的中间立场:既非乌托邦也非反乌托邦

被问及世界观,李飞飞拒绝乌托邦和反乌托邦的说法。“我其实是个平庸的中间派,”她笑着说。“这个中间派希望用更务实和科学的角度来看待这个问题。”

这种务实在她谈论误用时尤为明显。火焰革新了文明——但火也会烧伤。AI将推动人类进步——但滥用的AI令人担忧。同样令人担忧的是公众沟通。“我确实觉得存在广泛的焦虑,”她观察到,而这种焦虑往往源于耸人听闻的报道,而非平衡的讨论。

她特别关心:政治家和媒体如何塑造关于AI的认知。她观察到一些世界领导人会问:“当机器统治出现时,我们该怎么办?”——这种说法将科幻与政策现实混为一谈。“我们关于AI的公共讨论需要超越‘当机器统治出现时,我们该怎么办?’这个问题,”李飞飞坚持。

李飞飞的核心信息:在AI时代的人类主动性

李飞飞以一个源自数十年经验的信念结束:“在AI时代,主动权应掌握在人类手中。主动权不在机器,而在我们自己。”这并非回归模拟时代的怀旧,而是呼吁有意识地使用技术。

她将此应用于自己和全球的孩子们。“不要因为有了AI就变得懒惰,”她建议。用大型语言模型获取答案会中断学习。理解数学需要努力;AI应补充这种努力,而非取代。“提出正确的问题,”她说。另一方面,不要用AI制造武器。打击深度伪造、合成媒体和有组织的虚假信息。

对李飞飞而言,传统的人类价值——好奇心、诚实、创造力、批判性思维和责任感——不是遗物,而是构建AI世界的基础。“作为一名教育者和母亲,我相信一些人类价值是永恒的,我们需要认识到这一点。”这些价值通过教育和生活经验培养,构成了明智管理变革性技术的基石。

她从一个不懂英语、在干洗店工作的青少年成长为全球有影响力的AI研究者,彰显了她的核心主张:人类的能动性、韧性和有意为之的行动比技术力量更能塑造未来。这一信息——根植于她的生活经历和25年的AI沉浸——或许是她对未来技术讨论中最重要的贡献。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论