硅谷人工智能风云:英雄与反派共舞
更新时间:2024-10-21 10:23 浏览量:88
山姆・奥特曼加入 OpenAI 后,面临着巨大的挑战。OpenAI 在资金几乎耗尽的情况下,奥特曼凭借其卓越的商业眼光和策略,成功说服了微软投资 10 亿美金。这一举措让 OpenAI 起死回生,为其在人工智能领域的发展注入了强大的动力。奥特曼深知,在激烈的市场竞争中,只有通过商业化才能筹集到足够的资金来维持超级人工智能的研发。他积极推动 OpenAI 的商业化进程,不断寻找新的商业模式和合作机会。然而,这一过程并非一帆风顺。OpenAI 最初想做一个非盈利企业,但在现实面前,这一理想显得过于理想化。奥特曼不得不做出艰难的抉择,在商业化的道路上不断探索,以确保 OpenAI 能够在竞争激烈的人工智能市场中杀出重围。
OpenAI 内部因理念不同而产生了激烈的争斗。学院派更关注人工智能的安全和伦理问题,而奥特曼则更注重商业化的推进。这种理念上的差异导致了多名创始人的离职。例如,伊利亚・苏茨克沃离开 OpenAI 后创办了 Safe Superintelligence Inc,专注于更安全的超级人工智能。其他几位创始人也纷纷离职,创办了诸如 Anthropic 等公司,同样号称专注于 AI 安全。OpenAI 的初创团队从最初的 11 人到如今仅剩下 2 位留在公司。总裁 Greg Brockman 休假一年,前研究总监 Ilya Sutskever 创办新公司。OpenAI 的 “超级对齐” 团队负责人詹・莱克也宣布辞职,团队解散。这些离职事件加剧了外界对 OpenAI 团队的质疑,也让人不禁思考 OpenAI 未来的发展方向。内部纷争不仅体现在人员离职上,还表现在对公司发展方向的不同看法上。奥特曼的商业化策略引发了一些人的不满,他们认为这与 OpenAI 最初的非盈利使命背道而驰。然而,奥特曼也有自己的苦衷,在复杂的商业环境中,他每做出一个决定都是在寻找生存的机会。毕竟,没有足够的资金支持,OpenAI 很难在人工智能领域继续发展下去。
2024 年 5 月,Ilya Sutskever 从 OpenAI 离职后创办了 SSI(Safe Superintelligence Inc.)。SSI 专注于研发安全的超级智能技术,视安全性和能力为关键技术难题,通过革命性工程和科学突破来解决。公司在美国的帕洛阿尔托和特拉维夫均设有办事处,汇聚了全球顶尖的工程师和研究人员,包括前苹果 AI 高管、Y-Combinator 的合伙人 Daniel Gross 和前 OpenAI 技术团队成员 Daniel Levy 等作为联合创始人。SSI 在成立不到 3 个月的时间里,就获得了 10 亿美元融资,投资方包括 NFDG、a16z、Sequoia Capital、DST Global 和 SV Angel 等。公司估值达到 50 亿美元,计划利用这些资金聘请更多顶级人才开发 “安全的超级智能” 产品。
Andrej Karpathy 于 2024 年 2 月离职 OpenAI 并创立了 Eureka Labs。这家公司正在开发人工智能教学助理,致力于打造一种全新的、原生支持 AI 的学校。Eureka Labs 的第一个产品将是世界上最好的 AI 课程 LLM101n,这是一门本科水平的课程,指导学生训练自己的 AI。此外,OpenAI 的其他创始人也纷纷创办新公司。这些新公司的涌现,客观上形成了一种像 AI 曼哈顿计划一样的扩展,让 AI 的技术力量由更多的人、更多的专家、更多的公司和团队掌控,形成了一种新的平衡。它们在不同领域探索人工智能的发展,为人工智能的未来带来了更多的可能性。
AI 教父星盾在获得诺贝尔奖后,为学生伊利亚打气,认为他试图让奥特曼下台的行为很勇敢。星盾批评奥特曼追逐利益,在他看来,OpenAI 在奥特曼的领导下过于注重商业化,忽视了人工智能的安全和伦理问题。星盾对奥特曼的批评引起了广泛关注,也让人们开始反思人工智能发展中的商业利益与社会责任的平衡。同时,星盾对学生伊利亚的行为表示支持,认为他敢于挑战权威,为了人工智能的安全和伦理而努力。伊利亚离开 OpenAI 后创办的 SSI 专注于更安全的超级人工智能,这一行动得到了星盾的认可。
星盾对 AI 未来前景和人类命运充满了悲观。他认为,随着人工智能的快速发展,可能会给人类带来巨大的风险,如制造虚假信息、对就业构成威胁,甚至对人类构成威胁。正如 AI 教父杰弗里・辛顿宣布从谷歌离职时所表达的担忧一样,星盾也担心人工智能的发展不受到有效的监管和控制,可能会超越人类的控制。然而,星盾一方面表达对 AI 未来前景的悲观,对人类的悲观,一方面又从谷歌此又创办了自己的一家新公司。这一行为让人不禁质疑,当他们批评奥特曼追逐利益的时候,他们自己真的能完全摆脱资本的影响,摆脱对利益的追求吗?星盾的新公司或许也面临着同样的商业利益与社会责任的平衡问题。尽管星盾对 AI 行业充满担忧,但他的行动也表明,他仍然希望通过自己的努力,为人工智能的发展找到一条更加安全、可持续的道路。
OpenAI 在商业化过程中面临着诸多挑战。在技术方面,随着模型迭代,算力需求不断上升,若 ChatGPT 的访问量达到谷歌搜索的十分之一,OpenAI 的 GPU 开销将达到 160 亿美元,这成为其规模化的瓶颈。同时,大模型本身的训练成本、模型被调用推理的成本、训练数据收集和清洗的成本以及投入应用的获客成本都不容小觑。以微软的 Copilot 为例,内部人士透露其每个用户每月会为微软带来超过 20 美元的亏损,部分用户每月成本甚至高达 80 美元。国盛证券研究显示,ChatGPT 生成一条信息的成本约 1.3 美分,是传统搜索引擎的三到四倍。
在应用方面,虽然 OpenAI 不断推出新的收费服务,但盈利模式仍不够清晰。目前主要依靠个人订阅、企业订阅等方式,然而随着市场竞争的加剧,如何持续吸引用户付费成为难题。
人才方面,OpenAI 需要吸引和培养一支具有丰富经验和创新精神的人才队伍。但随着人工智能行业的快速发展,人才竞争激烈,留住人才的成本也在不断增加。
伦理方面,随着 AI 技术的广泛应用,伦理和监管问题日益凸显。OpenAI 必须建立健全的伦理审查机制,确保 AI 技术的应用不会侵犯用户隐私,不会加剧社会不公,同时积极参与政府和行业组织的监管政策制定。
整个 AI 行业在商业化道路上都面临着困难。成本高是首要问题,大模型应用的主要成本包括大模型本身的训练成本、模型被调用推理的成本、训练数据收集和清洗的成本以及投入应用的获客成本。例如,硅基智能科技有限公司 CEO 司马华鹏指出,这些成本对于企业来说是巨大的负担。
盈利模式不清晰也是行业普遍难题。天使投资人、人工智能领域专家郭涛分析,大模型应用还处于商业化早期阶段,很多盈利模式并不清晰,比如收费形式和定价区间。目前主流的收费方案是个人订阅制,但定价在每月 9.9~30 美元之间,这一价格区间是否合理仍有待市场检验。
此外,AI 行业还面临着技术层面仍需突破、商业环境和相应规范有待进一步完善等问题。埃森哲大中华区信息技术服务总裁陈笑冰表示,虽然中国拥有最丰富最广阔的人工智能应用场景,但在基础研究和一些关键技术上与国外仍有差距,需要政府和企业去长期推动。同时,AI 引发的诸多有关伦理和社会的问题会减缓人工智能的推广步伐,政策制定者需切实为人工智能生态系统制定道德准则,保证人工智能应用更加合理合规。
2024 年,硅谷科技行业裁员风暴持续肆虐,超 5500 人遭波及。谷歌、亚马逊等科技巨擘公布大规模裁员计划,Discord、Unity Software 以及 Duolingo 等公司也纷纷加入裁员潮流。这波裁员浪潮是继 2023 年的 262,682 人和 2022 年的 164,969 人裁员后再起的高潮。然而,尽管裁员举措不断,硅谷对 AI 技术的热情却丝毫未减。谷歌和亚马逊对 AI 初创企业 Anthropic 的投资数额达数十亿美元,显示出 AI 技术在未来战略中的关键地位。专家分析,裁员一方面是疫情时期过度招聘的自我修正,另一方面也是高利率导致的战略调整结果。这种裁员与增长并存的现象,反映了 AI 技术正在重新塑造劳动市场和企业运营模式,其深远影响正逐步显现。
美国斯坦福大学的一个 AI 团队发布的开源模型 Llama3 - V 被指抄袭中国大模型公司面壁智能的开源成果 MiniCPM - Llama3 - V 2.5。该事件引发了广泛的 “抄袭” 质疑,在开源社区内引起了轩然大波。由于该团队的三位作者都来自斯坦福大学,又拥有在特斯拉、SpaceX 和亚马逊等科技大厂的相关经历,发布该模型的 X 文章很快获得超过 30 万的浏览量,该模型也迅速在 Hugging Face 首页的模型热度名单上冲进前排。然而,不久后就有网友发现两个模型的结构、代码、配置文件都一模一样,只有变量名被替换了。面对质疑,Llama3 - V 团队回应称其 “只是使用了 MiniCPM - Llama3 - V 2.5 的 tokenizer(分词器)”,但随后证据显示,Llama3 - V 项目使用了与 MiniCPM - Llama3 - V 2.5 项目基本完全相同的模型结构和代码实现。目前,该团队已公开道歉,并删除了相关库和官宣推文。这一事件引发了关于开源领域的原创性和信任问题的广泛讨论。
在 2024 世界计算大会上,硅谷人工智能研究院创始人皮埃罗・斯加鲁菲认为,医学 AI 将会带来巨大改变,医生根据人工智能可以做出更好的临床诊断决策。中南大学湘雅医院 “移动医疗” 教育部 - 中国移动联合实验室的常务副主任黄伟红教授也提到,人工智能在提高医疗诊断的速度和准确性方面展现出巨大潜力,通过对海量医疗数据的深入学习,AI 能够辅助医生更精准地识别疾病特征,降低误诊发生率。同时,AI 在疾病预测中的应用也令人瞩目,通过整合患者病史、基因信息等数据,AI 可以提前预警潜在疾病,为患者提供个性化预防措施。此外,AI 还能提升医院管理效率,优化重复性工作流程,释放医务人员时间,集中精力于更复杂的治疗和护理工作。然而,黄伟红教授也提醒我们注意 AI 的局限性,现阶段的人工智能尚无法完全替代医生,尤其是在面对多学科协作的复杂案例时。但他对未来 AI 在医疗领域的发展持乐观态度,随着可穿戴设备、云计算和新一代智能计算技术的发展,医疗健康服务将变得更加便捷和普及,推动主动健康管理的实现。数据安全和隐私保护技术的不断进步也将为 AI 在医疗应用的深入提供保障。
当 AI 的力量被分散在更多的参与者手里时,确实能带来诸多好处。首先,降低垄断带来的风险是关键之一。正如我们从众多科技领域的发展历程中看到的那样,垄断往往会导致创新停滞、价格不合理以及消费者选择权受限。而在 AI 领域,若被一两家巨头垄断,可能会阻碍技术的进一步发展,使得整个行业失去活力。多家公司掌控 AI,意味着竞争的存在,这将促使各公司不断投入研发,推动技术的进步。
其次,科技平权更容易发生。不同规模的公司和团队都能参与到 AI 的发展中,使得资源不再集中于少数巨头。这将为中小企业和新兴创业公司提供机会,让他们也能在 AI 领域崭露头角。例如,一些小型科技公司可能专注于特定领域的 AI 应用,为特定行业或用户群体提供更精准、个性化的解决方案。这样一来,无论是大企业还是小公司,都有机会利用 AI 技术提升自身竞争力,实现科技平权。
再者,形成开源生态也是多家掌控 AI 的重要好处。开源使得技术不再是封闭的黑匣子,而是可以被广泛共享和改进的公共资源。开发者们可以在开源项目的基础上进行创新,加速技术的传播和应用。例如,百度 CTO 王海峰提到开源创新对推动产业智能化升级意义重大,开源的应用已经突破了单纯的技术层面,成为跨国界大规模协作生产方式的代表。中国电信星辰 AI 大模型全面开源也具有重要意义,通过持续开源基础大模型,将广泛地赋能更多的用户场景加速应用落地,联合各类合作伙伴打造大模型信创产业体系。开源生态不仅促进了技术的迭代创新,还提高了整个行业的透明度和可信赖性。
然而,如果 AI 被少数巨头垄断,可能会带来严重后果。一方面,权力集中将成为巨大隐患。科技巨头本来已经拥有相当大的权势,到了 AI 时代权势将会更大。少数企业有资源开发大型 AI 模型并加以应用,这会赋予它们过大的权力,它们可以掌控我们的生活和制度。例如,加密信息应用 Signal 总裁 Meredith Whittaker 担心谷歌 AI 技术会用在战争无人机上,于是组织几千名员工罢工。他认为这种现实会赋予科技巨头过大的权力,它们做的决定会在社会上造成严重后果。
另一方面,失业问题也令人担忧。国际货币基金组织总裁格奥尔基耶娃表示,全球近 40% 的就业机会受到人工智能的影响。如果 AI 被少数巨头垄断,可能会加速这一进程。有专家预测未来数年内,人工智能至少能够取代全球 3 亿人的工作岗位。以 ChatGPT 的问世为例,它可能会取代软件开发、网站工程师、编程、自媒体、翻译、广告、平面设计、内容创作、金融顾问、市场分析、律师、会计、影视创作等行业中的大量工作者。当自动驾驶技术成熟后,物流运输、出租车、滴滴等行业也将被少数几个巨头垄断,造成大量人员失业。这将给社会带来巨大的压力,可能引发资源争夺导致战争,而有人工智能参与的战争,其惨烈危害程度将远远超过以往的战争。
七、未来的展望人工智能在未来的发展充满了不确定性。一方面,从搜索到的素材来看,未来学家预测了 2025 年人工智能的十大趋势,包括增强型工作、实时自动决策、“负责任” 的人工智能、文生视频与新一代语音助手、人工智能立法和监管更加完善、人工智能体或将流行、“后真相” 世界、量子人工智能、人工智能 + 网络安全、“可持续” 的人工智能等。这些趋势表明人工智能在未来将继续深入各个领域,为人们的生活和工作带来更多的便利和创新。例如,在物流、客户支持和营销等领域,人工智能可通过算法作出决策,为企业带来更高的效率,更快应对市场波动;文生视频模型的出现展示了通过简单文本描述创建视频的可能,为文艺作品的创作带来新的机遇。
另一方面,人工智能也可能带来风险和挑战。国家安全新挑战表明,人工智能可能带来数据窃取风险、网络攻击风险、经济安全风险、“数据投毒” 风险和军事安全风险等。例如,人工智能需要海量的数据来进行学习和训练,这些数据中可能包含用户大量敏感信息,如果这些信息被滥用或泄露,可能会对个人隐私、国家安全造成严重危害;在人工智能的协助下,网络攻击者可以随时随地对特定目标轻易发起针对性和隐蔽性很强的进攻,将互联网空间变成人人自危的 “黑暗森林”。
人工智能在未来有可能带来巨大变革。从对未来十年人工智能发展趋势的分析中可以看出,人工智能将在自主学习与决策、自然语言处理、计算机视觉、机器人技术、量子计算、边缘计算、隐私保护与伦理等方面取得重要突破。例如,随着深度学习和强化学习技术的不断发展,人工智能将能够在更广泛的领域实现自主学习和决策,从而提高效率并减少人为干预;自然语言处理技术将在未来十年内取得显著进步,使人工智能能够更好地理解和生成人类语言,从而实现更加自然、流畅的人机交互。
此外,人工智能还将在医疗健康领域发挥重要作用。人工智能将帮助医生进行疾病诊断、治疗方案制定及个性化医疗的实践。借助大数据分析,人工智能将在预防医学和慢性病管理中扮演越来越重要的角色。例如,在 2024 世界计算大会上,专家认为医学人工智能将会带来巨大改变,医生根据人工智能可以做出更好的临床诊断决策,人工智能在提高医疗诊断的速度和准确性方面展现出巨大潜力,通过对海量医疗数据的深入学习,人工智能能够辅助医生更精准地识别疾病特征,降低误诊发生率。
然而,人工智能在未来也面临着风险和挑战。从人工智能的多样性和不确定性的调查解读中可以看出,人工智能的进展速度、影响范围、安全性、公平性、道德性等问题需要我们认真地思考和应对。例如,大多数里程碑被预测在未来十年内发生的可能性甚至更大,但也有很多合理的日期,这表明人工智能的进展存在不确定性;人工智能研究人员对人工智能实现各种任务和水平的时间和概率的预测也存在不确定性,这反映了人工智能研究人员对人工智能进展的不确定性和敏感性。
此外,人工智能的风险防范和治理也面临着五方面挑战,包括步调不一致问题、信息不对称问题、风险规制过程中的成本不对称问题、全球治理体系的问题和地缘政治问题。例如,人工智能技术发展非常快,但治理体系的变化相对缓慢,因为每个法律法规的出台都要经过一系列论证、多方考虑;政府作为治理主体,企业作为被规制主体,双方都存在盲区,政府对于技术可能带来的风险也不清楚,双方信息不对称,有时候存在 “共同无知” 情况。
综上所述,人工智能在未来的发展充满不确定性,既有可能带来巨大变革,也可能带来风险和挑战。我们需要认真思考和应对人工智能的发展,加强人工智能的治理,确保人工智能的安全、可靠、可控,为人类社会的进步和发展做出更大的贡献。