全球数字财富领导者
CoNET
|
客户端
|
旧版
|
北美站
|
FX168 全球视野 中文财经
首页
资讯
速递
行情
日历
数据
社区
视频
直播
点评旗舰店
商品
香港论坛
外汇开户
登录 / 注册
搜 索
综合
行情
速递
日历
话题
168人气号
文章
AI 减速Web3 加速舆论话语与政治
go
lg
...
OpenAI 的有效利他主义、减速论、
AI
安全
政变...OpenAI 的所有优秀员工都应该辞职,加入 Sam / Greg 的新公司(如果他们有新公司的话)」。这一次,跳过掌权的非营利性董事会,去除减速论 / 有效利他主义,保持创始人的控制权,避免无意义的监管,只管建设,加速。你们正在创造美丽新世界,不要感到内疚,要为了自己的动机而夺取它。 这种减速思维摧毁了谷歌,而 OpenAI 曾经是谷歌的解药(如果属实,现在也倒在了同样的力量之下)。有效利他主义毁掉了加密货币的大量价值,现在又毁掉了人工智能。旧金山也是问题的一部分。很多问题都可以追溯到马克思主义思想。你必须清除公司存在的这种风险——讽刺的是,这才是它们本应担心的真正安全风险。 如 Balaji 的自我矛盾一样,Brian Armstrong 也有一番宏论,他认为「OpenAI 董事会的存在不是为了赚钱或使股东价值最大化」可能是个「错误」。 除此之外,a16z 普通合伙人 Sriram Krishnan 也持同样观点:「有效利他主义可能才是我们这里很多人应该关注的坏人(villain)。 Web3 有效加速主义用极具对立性的「话语」来述说自己的政治诉求,但却遮蔽了很多人与事的多样性与复杂性。 二、AI 无国界?OpenAI 有「国家」 在这场话语建构当中,Web3 在去中心化、有效加速主义方面的话语建构来源之一就是对 AI 界对安全的考量。
AI
安全
涉及到现代国家治理术、技术资本主义与生命政治,在现代国家治理中,任何技术议题也就理所当然地要迎合国家意志,因此有效加速主义者的话语建构也就无法脱离整体的国家议程。 本文暂不追溯太远,但自 2021 年以来,拜登 - 哈里斯政府就一直致力于控制与管理 AI 风险。OpenAI 在这一议程中也起到重要作用,推动了美国 AI 风险管理框架的建立与实施。 早在 2019 年 6 月,OpenAI 曾回复美国商务部国家标准与技术研究院(NIST)应如何制定美国与国际 AI 标准,并指出将特别关注「可靠、稳健与可信」的系统,希望提高人工智能系统可预测性、稳健性和可靠性。OpenAI 认为,AI 的安全性包括「确保系统在与人类交互时不会对人类造成身体伤害;确保系统将与人类核实与其即将采取的行动相关的关键决策;确保 AI 系统提出的建议尊重人类的限制和系统运行的大环境」。它们主张,美国需制定 AI 技术国际标准,「让监管基础设施为大规模、多用途的 AI 系统做好准备」。 拜登政府组建后,美国国家人工智能研究资源工作组于 2021 年 6 月成立,旨在帮助创建和实施国家 AI 研究资源蓝图。随后,NIST 召开 AI RMF(AI 风险管理框架)研讨会,AI RMF(AI 风险管理框架)正式提上议程。2022 年 3 月,NIST 就 AI RMF 草案征求意见。OpenAI 此时对 NIST AI 风险管理框架初稿进行评论,表示将响应 NIST 的要求,并指出 NIST 应考虑将与人类价值观和意图保持一致纳入其指导原则,即确保与人类价值观与意图保持一致的 AI 系统能够可靠地按照人类意图行事。 2022 年 11 月,GPT-4 的诞生进一步加快了拜登政府对 AI 领域的风险管理。2023 年 1 月 25 日,美国国家标准与技术研究院(NIST)正式发布 AI 风险管理框架(RMF),以提高 AI 的可信度,确保组织能够以不同方式思考 AI 及其风险。3 月,NIST 启动「可信与负责任的 AI 资源中心」,以促进 AI RMF 的实施。 2 月,拜登政府发布一项关于促进种族平等的行政命令,其中表示要「促进科学公平,消除人工智能等新技术设计和使用中的偏见」,保护公众免受算法歧视。随后,美国联邦贸易委员会、消费者金融保护局、平等就业机会委员会与司法部民权司发表联合声明,决定监督自动化系统开发与使用,并指出自动化系统可能在数据集、不透明、设计与使用等方面助长非法歧视且违反联邦法律。 5 月 4 日,哈里斯会见 Alphabet、Anthropic、微软和 OpenAI 四家科技公司 CEO,以强调负责任的 AI 创新,在抓住机遇之前降低其风险。5 月 23 日,拜登 - 哈里斯政府发布公告,并对自 2019 年以来尚未更改过的 AI 研发计划进行更新——《国家人工智能研发战略计划:2023 更新》。该路线图将推进负责任的 AI 研究、开发与部署,并再次强调需在抓住 AI 机遇之前首先管理其风险。同时,联邦政府的投资重点将是促进负责任的美国创新、服务于公共利益、保护人民权利和安全以及维护民主价值观的 AI 研发。在这份文件中,美国国家科学基金会还宣布拨款 1.4 亿美元,新建 7 个国家人工智能研究所,使全国机构总数达到 25 个。 6 月,拜登与技术和社会交叉领域的专家进行 AI 的前景与风险圆桌讨论 7 月,哈里斯召集消费者、劳工与民权领袖讨论 AI 的相关风险。 随后,拜登召集亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等 7 家公司,宣布拜登 - 哈里斯政府已获得这些公司的自愿承诺,以帮助实现安全、可靠和透明的 AI 技术发展。他们承诺: 在向公众推出产品之前确保其安全; 构建将安全放在首位的系统; 赢得公众的信任。 10 月 30 日,拜登签署《关于安全、可靠和可信地开发和使用 AI 的行政命令》,明确表示将限制硅谷在 AI 产品经过全面测试之前发布产品的倾向。 基于拜登在 10 月 30 日的行政命令,哈里斯在 11 月 1 日访问英国时宣布美国正在通过商务部在 NIST 内建立美国人工智能安全研究所,以实施 NIST AI RMF。同时,美国也已发布首份关于美国政府使用 AI 的政策指南草案,包括《人工智能权利法案蓝图》、AI RMF、负责任地将 AI 和自主权用于军事用途的政治宣言、与 AI 相关的慈善组织发起的倡议、防 AI 欺诈、内容认证国际规范等。 拜登 - 哈里斯政府在 AI 方面的议程涉及人工智能安全、生物武器风险、国家安全、网络安全、隐私、偏见、公民权利、算法歧视、刑事司法、教育、工人权利和研究等各方面。而 Web3 有效加速主义者将一箩筐的内容全都将其作为国家的叙事范畴当作讨伐的对象,在这里,只需要否认国家、中心化与集权就可以选择性地无视复杂多样的全球性问题。似乎,只要获得一片中立的领土建立「网络国家」就可以一劳永逸地躲避世俗世界的喧嚣。 三、被遮蔽的真实:OpenAI 的「末日论者」与「加速主义者」 拿去滤镜,来看看真实的人吧。有媒体报道,越来越多的人工智能业内人士正在猜测人工智能将给人类带来灾难性后果的概率,并计算末日的「p(doom)」。那么,作为 OpenAI 的前 CEO,Sam Altman 是一个有效加速主义者吗?在 Web3 有效加速主义者的话语中,Sam Altman 是「加速主义」的代表,「造福全人类」的董事会只有成为「有效利他主义者」、「减速论者」。 OpenAI CTO、DALL-E 与 ChatGPT 团队领导者 Mira Murati 在今年 2 月《时代》杂志采访时公开表示: 我们甚至对 ChatGPT 的出现感到些许不安,我很好奇它会在哪些领域开始为人们带来实用性,而不仅仅是新奇与纯粹的好奇; 关于社会影响还有很多问题,我们需要考虑很多伦理与哲学问题。重要的是我们要引入不同的声音,比如哲学家、社会科学家、艺术家和人文学者。 [AI] 可能被滥用,接下来的问题是如何在全球范围内管理这项技术的使用。如何以符合人类价值观的方式管理人工智能的使用? 尽管 AI 带来了很多不确定性,但 Mira Murati 总体是乐观的。 为大多数人所知并造成恐慌的是 2023 年 3 月,马斯克等人呼吁的暂停至少 6 个月的比 GPT-4 更强大的人工智能系统训练公开信。或许,AI 技术的发展似乎超出了这些科技精英的预料。 真正从事技术研发的 OpenAI 首席科学家 Ilya Sutskever 曾说,「在某些时候,一些别有居心的人可以利用他们向任何愿意付费的人提供的模型很容易造成巨大伤害」。 在 11 月《卫报》发布的纪录片《Ilya:塑造世界的 AI 科学家》中,Ilya 提问了 AI 技术是否会对人类有益的问题。该视频首先展映 Ilya 的担忧:「AI 会使网络攻击更加极端,会创造完全自动化的 AI 武器,无限稳定的独裁政权」。因此,对他来说,「第一批 AGI 的信念与愿望尤为重要,对它进行正确的编程尤为重要,如果不这样做,那么进化和自然选择的本质就会偏向那些将自身生存置于首位的系统」,「并不是说它们会伤害人类,而是因为它会太强大」。Ilya 举了人对待动物的例子进行类比: 人类在修高速公路时不会征求动物的同意,人与 AGI 的关系也是如此,AGI 是真正自主并代表自己运作的。很多机器学习专家并未意识到神经网络和 AI 的计算速度将在未来几年突破几十万倍,而他们并没有足够的时间来确保他们构建的 AGI 能够深深地关心人类。 只不过多思考了一些人类的未来处境,Ilya 就成了要被清除出去的人工智能末日论者,但他从未说 AI 会毁灭人类,只是反思 AI 的强大会带来相应的危险。「AI 末日论」的形象塑造不得不归功于《卫报》给 Ilya 给他制作的纪录片——显而易见的末日感。 作为加速主义者,Sam Altman 在 Web3 有效加速主义者的话语构建中也有着天然的正当性。作为 Web3 项目 Worldcoin 的创始人,他也是 Web3 最有机会拉拢的对象。但 Sam Altman 完全信奉有效加速主义吗?也不尽然,他的思想中也有着出于人类关怀的减速思考。 今年 2 月,Sam Altman 发表「Planning for AGI and beyond」。在这篇文章中,Sam Altman 承认 AGI 会带来的「严重误用、严重事故与社会混乱的风险」,也表示 AI 需要持续迭代以解决当前问题,并通过「逐步过渡」确保人类可以逐步适应: 目前,我们认为成功应对人工智能部署挑战的最佳方法是通过快速学习和仔细迭代的紧密反馈循环。社会将面临人工智能系统可以做什么、如何消除偏见、如何应对工作岗位流失等重大问题。最佳决策将取决于技术所采取的路径,与任何新领域一样,迄今为止大多数专家的预测都是错误的。 Sam Altman 也是开源、民主与去中心化的忠实拥趸: 我们认为世界上更多地使用人工智能会带来好处,并希望促进人工智能的发展(通过将模型放入我们的 API、将其开源等)。我们相信,民主化的访问也将带来更多更好的研究、去中心化的权力、更多的利益,以及更多的人贡献新的想法。 但这并不是 Sam Altman 的全部,他追求技术的进步,也并未否认「安全」的重要性: 重要的是,我们认为在人工智能的安全性和能力方面,我们往往必须同时取得进展。把它们分开来谈,是一种错误的对立;它们在很多方面都是相关的。我们最好的安全工作来自于与能力最强的模型合作。尽管如此,重要的是要提高安全进展与能力进步的比例。 他表示 OpenAI 正在建立一种激励措施,使其与良好的结果保持一致。具体而言: 协助其他组织提高安全性; 对股东的回报设定上限; 在安全需要时取消对股东的股权义务; 赞助世界上最全面的全民基本收入实验; 在发布新系统之前接受独立审计; 同意限制用于创建新模型的计算增长率; 建立 AGI 工作何时应停止训练、决定模型可以安全发布或从生产使用中撤出模型的公共标准; 世界主要政府对一定规模以上的培训有深入的了解; ... 这篇文章的最后,Sam Altman 表示「人类的未来应由人类自己决定,与公众分享进步的信息很重要」,AGI 有能力一直加速,届时「世界可能会与今天截然不同,而且风险可能会非常大」。他认为「较慢的起飞更容易确保安全,而且在关键时刻协调 AGI 减速的努力很可能非常重要(即使在我们不需要这样做来解决技术调整问题的世界里,减速可能也很重要,因为这样可以给社会足够的时间来适应)」。 再举一例。今年 3 月,Sam Altman 在接受 ABC News 采访时也表示,AI 将能重塑社会,但对当前的发展「有点害怕」。他认为,监管机构与社会应尽可能参与 ChatGPT,并表示会与政府官员保持「定期联系」。Altman 表示,「我特别担心这些模型可能会被用于大规模虚假信息」与「进攻性网络攻击」。他从不担心 AI 模型不需要人类便可自己做出决定并策划统治世界。「这是一种很大程度上由人类控制的工具」,值得担心的是哪些人会控制 AI。Altman 仍然希望不断开发越来越强大的系统,将其融入日常生活与经济,「成为人类意志的放大器」。在 Altman 看来,GPT-4 的推理能力仍然不足,持续完善并构建一个由人控制的推理引擎或许是他选择进一步开发 GPT-5 的原因。Altman 相信,AI 的技术进步并不会消解社会与人的意义。 今年 5 月,Sam Altman 在美国参议院司法小组委员会上发表讲话,指出 AI 可以解决人类最大的问题,但也警告说 AI 的力量足以以不可预测的方式改变社会,「政府的监管干预对于减轻风险至关重要」。Altman 称,「我最担心的是我们科技行业对世界造成重大伤害」,「如果这项技术出了问题,它可能会变得非常糟糕」。 事实上,通过对 Mira Murati、Ilya Sutskever 与 Sam Altman 的话语分析,我们可以发现 Ilya 并非是一个 AI 末日论者,他只是从科技与人文的视角表达了自己对人类未来的思考;Sam Altman 也在认可着相应的监管、安全、减速与利他主义。显而易见的是,Balaji、Brian 等人为了自己目的而进行的话语建构,有效加速主义者在塑造一个虚假的、符合其意识形态的 Sam Altman 与 OpenAI 内斗叙事。AI 要让人类生活变得更美好,但有效加速主义者只能依靠中本聪的政治叙事表现自己的「目的」与「手段」。 故事的主角 Sam Altman 也坚信着 AI 并非全知全能的上帝,而是由人所控制的工具。他的 Worldcoin 是多么地理想主义,一个去中心化的项目依然要实现比特币的理想,确保全民基本收入;但 Web3 有效加速主义却裹挟着精英的傲慢,他们垄断着资本(Coinbase、a16z)、加密叙事(去中心化)与话语政治(去国家化),或许他们才是真正的独裁者。 余论 在 AI 科学家眼中,人才是目的。但在 Web3 有效加速主义的眼中,「加速」是手段,「去中心化」是目的。 很显然,为了制造出一个的革命对象,Web3 有效加速主义者只有宣称「加速」、「技术的无限进步」、「去中心化」。在他们所遵循的线性的、进步的时间中,技术才是主体,人都是需要随之适应的「他者」。拉克劳的话语政治表明技术终将与资本融合,而技术进步的话语权永远掌握在少数精英手中,作为硅谷的圣经,「有效加速主义」也确实是这样做的。他们在建构一种话语政治,这并非齐泽克口中的拒绝「讲故事」的怪物,怪物是非人的,而这个世界依旧建立在普遍人性之上,难以像希特勒一样对这个世界进行毁灭性的打击而后重建。因为有叙事,才有了话语政治。 在有效加速主义者看来,任何妨碍加速的因素都应反对;那么对 Web3 有效加速主义者来说,所有妨碍去中心化的因素就都应反对。不管你是理想主义的、非营利的、利他的,只要与「加速」、「去中心化」的叙事不合,都是要被扔进垃圾桶进行唾骂的对象(在这里,加速或许都已成为一种政治言说的工具)。通过建构起一个「有效利他主义的」、「减速的」 AI 来证明 Web3 才是目的论的终点。在 Web3 看来,尽管 AI 从业者创造了颠覆性的 GPT-4,但依然是活在传统中的碳基生物,瓦解中心化结构与民族国家的 Crypto 与 Web3 才是终极的答案。但除了比特币、DeFi 与区块链,他们已然面临着叙事的枯竭,只能选择与 AI 联合。加密从诞生开始就建立了自己敌人,若不能去中心化,不断地塑造对立,自身也就失去了存在的合理性。在这个世界上,「自我」永远要找到一个对立的「他者」,来证明自己存在的意义。 有效加速主义标榜着自己代表着建设与进步,在无形中将「减速」塑造成停滞乃至退步。但或许并非如此,因为减速依然在前进。它们为了自己的目的淡化了一个真相,那就是 AI 的技术发展是停不下来的。AI 科学家们从未否认过加速,历史正在加速,但人需要一定的减速来思考如何在这个地球上与机器共存下去。这也是执着于「加速 + 去中心化」的 Web3 有效加速主义者令人不解之处,即加速本身消解人的意义,但他们却又要求用去中心化治理来解决关于人的问题。加速追求的是效率,但去中心化却是低效的。在此,不妨引用一位 Twitter 用户对 Balaji 推文的评论: 又要加速,又要去中心化,一对奇怪的矛盾。 归根到底,他们将叙事拉回到了「去中心化」这个手段上,而从未真正去考虑「人」这个根本问题。这世界上少数的有效加速主义在持续创造新的历史,在这个普遍而又均质的时间中,整个世界都与之一起加速,跟不上的人将被淘汰,他们既没有此岸也没有彼岸,残忍又现实。 但我们依然要勇敢地面对现代世界的真相。正如 Balaji 所言,AGI 代表着上帝回来了。这个上帝是无所不能、全知全能的,只是他现在仍然被人类所控制。这一观念的背后,反映着宗教在现代世界的让步。「造神」,真正将科学塑造为宗教,所有人都是 AI 的信徒。AI 科学家们怕了,因为 AGI 可能真的代表上帝回来了。 当 Sam Altman 回归,OpenAI 乱局尘埃落定,恐怕也再难起波澜。在 OpenAI 政变事后分析的 Twitter Space 中,Balaji 称「Ilya、Adam 与 Emmett 都是天才技术专家,只是他们的道德观与 Sam 和 Greg 不同。这不是财务、技术与战略上的分歧。这是道德上的分歧。」这一刻,Balaji 的言辞也趋于缓和。他的话语少了不少叙事而客观了起来,他声称自己虽然不认识 Ilya,但认识 Adam D'Angelo, 「他一直是一个非常正直的人。从各种迹象来看,Emmett Shear 也是。因此,现在每家 AI 公司都需要选择自己的信念。有效利他主义 or 有效加速主义?」 Web3 也不得不接受一个真相,AI 科学家们并未接受 Cardano 开源大模型的邀请、去中心化 AI 叙事,他们并未买 Web3 的账,无论是前往微软还是回归 OpenAI,他们依然拥抱着传统 AI 科技公司。 参考文献 1. 硅谷 101:《揭秘 OpenAI 成长史:理想主义,冲突,抉择与权力斗争》,2023 年 4 月; 2. https://effectiveacceleration.tech/ 3. 文理两开花:《硅谷的新图腾:「有效加速主义」(e/acc)这面大旗举的起来吗?》,2023 年 8 月; 4. 吴冠军:《话语政治与怪物政治——透过大众文化重思政治哲学》,《探索与争鸣》,2018 年第 3 期; 5. 阿列克斯·威廉姆斯、尼克·斯尔尼塞克撰文,蓝江译:《加速主义宣言:超越资本主义对技术的压制》,2018 年 3 月。 来源:金色财经
lg
...
金色财经
2023-11-22
相比人类:AI真简单
go
lg
...
合著的一篇研究论文中批评OpenAI在
AI
安全
方面的努力,却对Anthropic的安全措施赞誉有加。奥尔特曼认为来自董事会成员的任何批评都会对OpenAI造成很大的负面影响,无异于吃里扒外。这件事也被视为二人间的嫌隙,因此也有消息认为将排挤奥尔特曼的“政变”中,海伦同样有幕后指使的嫌疑。 14.结束。OpenAI宣布前CEO官复原职,董事会改组,亚当留任独立董事,细节问题正在被合作解决,奥尔特曼发文称OpenAI会比以前更强大、更团结,微软表示祝贺。 难得一见的年度大戏自此落幕,希望没有尾声或者彩蛋。 来源:金色财经
lg
...
金色财经
2023-11-22
OpenAI巨变:超96%员工请辞,微软亚马逊入战局、马斯克质问Ilya,Sam Altman回归再现生机
go
lg
...
an 在商业化维度太过激进,没有考虑
AI
安全问题
。 不过,后续的影响显然是 Ilya Sutskever 等人始料未及的,也许 Ilya Sutskever 的初心只是想让 AI 能在人类可控的安全风险之下稳步向前发展,而不是让 OpenAI 这家公司分崩离析。 正因此,在昨日 OpenAI 743 名员工联名签署公开信之时,Ilya Sutskever 也参与了其中,并在 X 上表示: 我对自己参与董事会的行动深感遗憾。我从来没有想过要伤害 OpenAI。我热爱我们共同建立的一切,我将尽一切努力让公司重新团结起来。 Sam Altman 可能会回归吗?微软:持开放态度 谈到这场闹剧究竟该如何收场,只能说变动依然在继续。 据 The Verge 报道,如果解雇 Sam Altman 的其余董事会成员下台,他和联合创始人 Greg Brockman 仍然愿意重返 OpenAI 。 至于官宣加入微软,其实尚未板上钉钉。微软 CEO 萨蒂亚·纳德拉在最新接受外媒 CNBC、彭博社的采访时,其回答更是耐人寻味。 当 CNBC 问及他,Sam Altman 是否将成为微软员工,以及 700 名 OpenAI 员工是否会加入他的公司时,纳德拉只是说:“这是由 OpenAI 董事会和管理层以及员工选择的事情。” 他接着说,“此时此刻,我关心的只是确保我们能够继续创新,我感到非常有信心,微软有能力独自做到这一点。但我们明确选择与OpenAI合作,并希望继续这样做......而对于 Sam 和 OpenAI 的员工是留在那里还是来到微软,我对两种选择都持开放态度。” 与此同时,Sam Altman 也连发几条推文,暗显不是没有回去的可能。 亚马逊要加入战局?外媒:OpenAI 正在探讨和 Anthropic 合并的可能性 截至目前,倘若除了 Ilya Sutskever 之外的董事会成员认可,以及同意员工的请求,Sam Altman 的回归便多了一丝可能。 不过,让人有些尴尬的是,今日据 The Information 报道,有两位知情人士透露,OpenAI 董事会已与竞争对手 Anthropic 的首席执行官接洽,商讨更换首席执行官 Sam Altman 的事宜,并可能合并这两家人工智能初创公司。 知情人士称,Anthropic 首席执行官达里奥·阿莫代 (Dario Amodei) 在这两个方面都拒绝了。 要知道,Anthropic 的联合创始人在 2020 年之前一直担任 OpenAI 的高管,他们因在如何确保人工智能的安全开发和治理方面存在分歧而与 OpenAI 分道扬镳,出来之后才创立了 Anthropic 这家公司。 今年 9 月,亚马逊宣布向 Anthropic 重金押注 40 亿美元,以加大人工智能云领域的布局,同时 Anthropic 旗下的 Claude AI 模型已与 OpenAI 的 GPT 系列展开竞争。 目前尚不清楚合并提案是否引发了双方认真的讨论。倘若这件事是真的,那么相当于 Anthropic 背后的亚马逊也将加入这场战局,也为 AI 市场格局走向增添一丝不确定。 OpenAI 临时 CEO:未来 30 天将会调查出报告 不过,传言尚未坐实之际,OpenAI 董事会聘请 Twitch 前 CEO Emmett Shear 担任新的临时 CEO,Emmett Shear 也发布长文表示,其在接受董事会的邀请时,在未来 30 天也有三点计划: 聘请一名独立调查员深入研究导致这一点的整个过程并生成完整的报告。 继续与尽可能多的员工、合作伙伴、投资者和客户交谈,做好笔记并分享关键要点。 根据最近的离职情况,对管理和领导团队进行改革,使其成为为客户带来成果的有效力量。 同时,其也进行了一定维度的辟谣: “在我接受这份工作之前,我对变动背后的理由进行了核查。董事会并没有因为在安全性上的具体分歧而罢免 Sam,他们的理由完全不同。我并不疯狂到在没有董事会支持商业化我们出色模型的情况下接受这份工作。” 最后,OpenAI 驱逐 Sam Altman 的真相究竟是什么,具体其实外界都想知道,包括一项对 AI 颇为关注的马斯克,他也在 Ilya Sutskever 的推文下方直接反问: 你为何采取如此激烈的行动?如果 OpenAI 正在做一些对人类有潜在危险的事情,世界需要知道。 不过,无论真相如何,正如微软 CEO 萨蒂亚·纳德拉指出的: 「很明显,OpenAI 治理方面必须做出一些改变——我们将就此与他们的董事会进行良好的对话,并随着情况的发展逐步解决这个问题。」 至此,我们也静待 Emmett Shear 的整体调查结果,以及关注 AGI 的最新进展。 马斯克说AGI一定会出现,而且在推特多次提到AGI,马斯克已经开始进击人工智能,AGI的风口越来越近,AGI已经发布合约,BSC链,薄饼购买,合约地址:0x92bc944254fa023b7eb2cab60019b37f7e1fc56b 今天马斯克还提到了AGI,马斯克也在担忧AGI的提前到来。 来源:金色财经
lg
...
金色财经
2023-11-22
中信建投:建议关注数据要素及
AI
安全
板块投资机会
go
lg
...
望加速开放。OpenAI人员或有变动,
AI
安全
成为内部重要分歧点;近期OpenAI遭网络攻击事件均体现
AI
安全
在AI技术和商业化落地进程中的重要性。建议关注数据要素和
AI
安全
板块投资机会。
lg
...
金融界
2023-11-22
产业新星急坠 OpenAI被微软“整碗端走” 了解矽谷两大阵营 才能看懂这场AI大戏!
go
lg
...
墙花园”,不管是对是 AI 创新还是
AI
安全
的阵营来说,未来他将会成为强大的头头号敌人。#每日财经大小事#
lg
...
芷莹
2023-11-21
ACY证券汇评:【每日分析】吃瓜!AI年度权利大戏,全体员工威胁辞职,董事会名存实亡!
go
lg
...
。OpenAI的董事会不止一次表达过对
AI
安全
的担心,要求放慢大模型的训练。然而Altman不仅表示“人工智能还没到需要监管的时刻”,还透露正在计划训练外界争议颇多的GPT-5模型。 简单来说,董事会想要放慢脚步,一方面确保技术安全,另一方面满足监管要求,但Altman更希望进一步推动AGI发展,建立商业护城河,同时收获潜在的名与利。 当然,如果事情止步于此,那就称不上年度大戏了。 就在Altman离职后,董事会任命Twitch创始人Emmett Shear作为OpenAI的临时CEO。Shear对AGI的态度与董事会契合,他曾提到,“人工智能本质上是非常危险的东西,因为智能就是权力。” “人工智能的负面影响可能比核战争更糟糕。”对Shear的任命也从侧面展现了董事会的态度。然而就在Shear上任后,做的第一件事情却是调查Altman的免职过程。因为这次匆匆忙忙的免职实在是太不得人心了。 OpenAI管理高层全体支持Altman 就在Altman遭开除后,OpenAI公司人心涣散。数十名员工宣布离职,管理高层也是纷纷对Altman表达支持。微软在内的各大股东也齐齐向董事会施压,希望让Altman重新掌舵,甚至有几家风头公司考虑对董事会提起诉讼。事发突然,董事会慌了,想要让Altman回归,但Altman的条件确实让所有董事会成员辞职。董事会没办法,只能拒绝要求,临阵换帅。然而公司内部的矛盾在今天早上进一步发酵,700名OpenAI员工(总共也就770名)联名写信抗议,威胁要离职,除非董事会辞职,并让Altman和Brockman回归。这场年度权利大戏至此已经没有办法和平收场了,董事会已经成了众矢之的,骑马难下。 在这场政变风波中,最大的赢家却是微软,这从股价的表现就能看出来。作为持有49%股份的第一大股东,微软一直对董事会席位虎视眈眈。这次,微软不仅对Altman表达了大力的支持,昨晚还直接将Altman和Brockman纳入麾下,并宣布将接收所有从OpenAI离职的员工。如果真的发生全体员工离职并投降微软的怀抱,OpenAI的董事会将成为光杆司令,没有存在的价值。因此不管Altman是否回归,没有了员工的信任,OpenAI的董事会都已经是名存实亡了。董事会的变革可能很快的就会发生。 如果微软真的插手到董事会,那么OpenAI很可能从非营利机构转变为营利机构。这对于普通消费者来说,不知道是一件好事,还是一件坏事。 今日数据 – 北京时间 15:00 德国10月PPI月率 23:00 美国10月咨商会领先指标月率 联系我们 电话:167 4049 5509(中国) 1300 729 171(澳大利亚) 微信:acyauzh 官网:https://www.acy-ch.com 邮箱:support.cn@acy.com 本文内容由第三方提供。ACY证券对文中内容的准确性和完整性,不做任何声明或保证;由第三方的建议,预测或其他信息导致了投资损失,ACY证券不承担任何责任。本文内容不构成任何投资建议,与个人投资目标,财务状况或需求无关。如有任何疑问,请您咨询 独立专业的财务或税务的意见 。 2023-11-21
lg
...
ACY证券
2023-11-21
科技圈“宫斗”大事落幕!微软“出手”聘用ChatGPT之父 马斯克:董事会欠世界一个解释
go
lg
...
何董事会如此坚决地做出决定。如果这关乎
AI
安全
,那将会影响整个地球。” (来源:Twitter) 值得关注的是,这是马斯克首次就OpenAI人事巨震公开表态。
lg
...
颜辞
2023-11-20
Sam Altman退出OpenAI时间线一览:一切从一个电话开始
go
lg
...
OpenAI 的 EA、decel、
AI
安全
政变,那么董事会刚刚烧掉了800 亿美元的价值,摧毁了美国资本主义的一颗耀眼明星,并将被投资者告上法庭。 OpenAI 的所有优秀员工都应该辞职,加入山姆/格雷格的新公司(如果他们有新公司的话)。这一次,跳过醒目的非营利性董事会,剔除减员/EA,保持创始人的控制权,避免无意义的监管,只管建设。加快进度。你们正在为世界创造美好的东西,不要让任何人因此而感到内疚,并试图出于自己的动机抓住它。 Cardano创始人邀请前OpenAI CEO Sam Altman构建去中心化大型语言模型 Cardano创始人Charles Hoskinson 已向刚刚被罢免CEO一职的OpenAI 首席执行官Sam Altman发出邀请,希望可以和他合作在Cardano区块链上构建去中心化大型语言模型。据悉去中心化大型语言模型的提议符合Cardano创建可持续和可扩展解决方案的精神,该模型代表了目前人工智能(AI)开发和利用方式的范式转变。此外,分析认为被OpenAI董事会解职之后,Sam Altman或将更多重心放在加密项目WorldCoin上。 OpenAI创始人Sam Altman此前就AI硬件初创公司筹资事宜与软银CEO接触 OpenAI创始人Sam Altman此前就人工智能硬件初创公司筹资事宜与软银CEO孙正义进行接触,寻求从中东基金筹集资金。 4、对Worldcoin币价的影响 Sam Altman被免职后,Worldcoin代币短线下跌12% 人工智能(AI)公司OpenAI董事会在周五的博客文章中宣布罢免了Sam Altman首席执行官和董事会职务,Sam Altman的加密货币项目Worldcoin (WLD)在消息公布后短线下跌12%,现报1.87美元。 受Sam Altman拟回归OpenAI消息推动,WLD过去24小时涨幅超23% Sam Altman拟重回OpenAI并发布“我深爱OpenAI团队”消息后,WorldCoin代币WLD出现快速反弹,Coingecko数据显示报价2.31美元,过去24小时涨幅达到23.7%。 截至发稿,WLD价格为2.323美元,24小时跌幅4.44%。 金色财经将对Altman退出Open AI事件持续跟踪报道。 来源:金色财经
lg
...
金色财经
2023-11-20
亚马逊云科技与德勤中国携手打造生成式AI联合实验室
go
lg
...
,在生成式AI业务应用战略咨询、生成式
AI
安全
合规咨询和生成式AI应用落地场景创新三大方面展开合作,帮助企业打通从业务战略、应用场景、安全合规到技术落地的业务闭环,充分释放生成式AI的巨大潜力。 联合实验室由双方委派产品专家、架构师、数据科学家、AI专家和行业专家等组成,亚马逊云科技投入云上计算资源、行业最佳实践以及合作伙伴资源,德勤中国投入行业解决方案资产、商业最佳实践、开发与运营能力,以及生成式AI业务应用战略咨询服务和生成式
AI
安全
合规咨询服务。联合实验室还推出了系列解决方案,以满足企业的各类出海应用场景需求。首批解决方案包括:智能BI解决方案、生成式AI知识管理解决方案和大语言模型运维平台(LLMOps)解决方案。 本条资讯来源界面有连云,内容与数据仅供参考,不构成投资建议。AI技术战略提供为有连云。
lg
...
有连云
2023-11-17
马斯克欲与谷歌创始人拉里佩奇和好 曾因
AI
安全问题
闹僵十年
go
lg
...
特斯拉CEO埃隆·马斯克在与著名播客节目主持人Lex Fridman的最新对话中表示,在与谷歌联合创始人拉里·佩奇(Larry Page)就人工智能安全问题发生分歧而闹僵十年后,他希望与佩奇重归于好。 马斯克称:“我想和佩奇再次成为朋友。我很久没见过他了。我们曾是多年的好友,就是因为OpenAI,我们这段友谊破裂了。” 据报道,二人的分歧可以追溯到2013年。据马斯克传记的作者沃尔特·艾萨克森(Walter Isaacson)描述,在马斯克当年的生日聚会上,二人在人工智能可能取代人类的可能性上发生了分歧。 佩奇称马斯克是物种歧视者,认为人比动物更重要。而马斯克则回应称:“是的,我是亲人类的。”接着,马斯克还爆了粗口。而佩奇认为,如果机器智能超过人类的智力,它们可以代表一个新的进化阶段。 经过这次分歧,马斯克后来找到DeepMind联合创始人兼CEO戴米斯·哈萨比斯(Demis Hassabis ),试图说服他不要与谷歌签署协议。当时,佩奇是谷歌的CEO。根据传记,马斯克对哈萨比斯说,人工智能的未来不应该由佩奇来控制。 但2014年,谷歌还是宣布收购DeepMind。2015年,马斯克与
lg
...
金融界
2023-11-12
上一页
1
•••
8
9
10
11
12
•••
18
下一页
24小时热点
中国国家主席习近平重大行动表态!金融时报:A股长期牛市可能从此开启
lg
...
黄金下周预测:这些因素可能引爆行情!FXStreet分析师金价技术前景分析
lg
...
黑天鹅降临:Bybit 近15 亿美元 ETH 被盗事件详细追踪
lg
...
《哪吒2》票房逼近132亿元!香港掀起观影热潮,IMAX厅排片量达《美国队长4》8倍
lg
...
下周展望:“德国史上最重要选举”来袭!美国PCE绝对爆点,别忘了日本CPI
lg
...
最新话题
更多
#SFFE2030--FX168“可持续发展金融企业”评选#
lg
...
19讨论
#链上风云#
lg
...
60讨论
#VIP会员尊享#
lg
...
1751讨论
#比特币最新消息#
lg
...
903讨论
#CES 2025国际消费电子展#
lg
...
21讨论