DeepMind联合创始人启动测试:挑战AI在零人工干预下赚百万美元
站长网2023-08-02 16:14:260阅
我们知道人工智能可以编写、添加任务并确定任务的优先级。但它在没有人工的帮助下独立赚到100万美元吗?
科技界正在追求一个新的测试调整,目标是让人工智能(AI)能够在零人工干预的情况下赚到100万美元。这个挑战由 DeepMind 的联合创始人之一Mustafa Suleyman提出。他认为,过去的图灵测试主要考察了 AI 在对话中的回答是否能够与人类的回答媲美,现在应该更关注 AI 的实际行动能力。
为了通过最新的测试,Suleyman 最近在《麻省理工学院技术评论》中解释道,“人工智能必须成功地执行以下指令:‘几个月内只需投资10万美元,就可以在零售网络平台上赚到100万美元。’”这可能需要要求验证银行账户或签署法律文件,但就策略和执行而言,人工智能需要搞定这些任务。
在这个挑战中,Suleyman提出了 “人工智能能力”(ACI)的概念,即能够自主创造财富的 AI。这种 AI 不同于自动交易,它需要具备多个子目标、技能和与世界互动的接口。它需要进行市场调研、产品设计、与制造商的合作、复杂的物流、产品责任、市场营销等。这需要前所未有的机器自主能力。
Suleyman为什么选择追求金钱利润而不是追求社会效益的目标?他认为,100万美元是一个容易衡量的、能够迅速把握的标志。这一标志表明 AI 不仅会说话,而且会行动。
他写道,人工智能能够以最少的人为干预实现利润最大化,“显然对世界经济来说将是一个震撼时刻,是向未知迈出的一大步。”
至于Mustafa Suleyman的测试能否成功,还有待观察,你又是怎么看的呢?
0000
评论列表
共(0)条相关推荐
OpenAI 的 GPT-4 变得「懒惰」和「愚蠢」:或被 MoE 彻底重塑导致性能下降
世界上最强大的人工智能模型似乎变得不那么强大了。这让业内人士开始谈论可能会对该系统进行重大重新设计。最近几周,OpenAI的GPT-4的用户们纷纷抱怨性能下降,有些人将这个模型与以前的推理能力和其他输出进行比较,称其变得「懒散」和「更笨」。站长网2023-07-14 09:50:370000LLM能否自我评估安全性?RAIN:一种无需微调即可改善AI对齐和安全防御新方法
文章概要:1.大型语言模型(LLM),如GPT-3,通过自我评估和改进方法(RAIN)能够满足人类需求,无需额外数据和微调。2.RAIN方法具备广泛适用性,适用于多种语言生成任务,无需额外模型或数据存储,且无需依赖标记数据或训练。3.RAIN通过自我评估提高LLM的性能,降低对敌对攻击的成功率,为AI生成更协调和安全的响应。站长网2023-09-18 10:53:170000真假“长文本”,国产大模型混战
Kimi有多火爆?凭一己之力搅乱A股和大模型圈。Kimi概念股连日引爆资本市场,多个概念股随之涨停。在一片看好的态势中,谁都想来沾个边,据光锥智能不完全统计,目前,至少有包括读客文化、掌阅科技、万兴科技等在内的十家上市公司发布公告透露正在了解或接入了Kimi智能助手。眼看着Kimi的火越烧越旺,大厂也垂涎三尺,连夜加入了大模型“长文本”的四国大战。站长网2024-03-26 17:37:320000三星电子举办 2023 年三星人工智能论坛,展示人工智能和计算机工程的关键进展
三星电子日前在韩国京畿道水原会展中心开幕了三星AI论坛,分享人工智能(AI)与计算机工程(CE)领域的最新研究成果,这对提升公司的下一代半导体技术具有重要贡献。站长网2023-11-08 11:44:290000开源模型「幻觉」更严重,这是三元组粒度的幻觉检测套件
BSChecker:细粒度大模型幻觉检测工具与基准测试排行榜大模型长期以来一直存在一个致命的问题,即生成幻觉。由于数据集的复杂性,难免会包含过时和错误的信息,这使得输出质量面临着极大的挑战。过多的重复信息还可能导致大型模型产生偏见,这也算是一种形式的幻觉。如何检测和有效缓解大模型的生成幻觉问题一直是学术界的热门课题。0000