OpenAI招募专家加入“红队”网络,加强AI模型安全性
文章概要:
1. OpenAI宣布了一项公开招募专家的计划,旨在邀请跨领域的专家加入OpenAI“红队”网络,以提高其人工智能模型的安全性。
2. “红队”网络是OpenAI的迭代开发过程的一部分,包括内部和外部对抗性测试,旨在加深与外部专家的合作,确保模型安全。
3. 网络成员将根据其专业领域在整个模型和产品开发生命周期中协助进行风险评估,而且他们不会被限制发表研究或寻求其他机会,但需要遵守保密协议。
OpenAI宣布了一项旨在加强其人工智能模型安全性的重要计划,即启动了“红队”网络。这一计划的目标是邀请来自各个领域的专家,加入他们的“红队”网络,共同评估和对抗其AI模型的潜在风险。
“红队”网络是OpenAI迭代开发流程的一部分,它包括内部和外部的对抗性测试,以确保模型在各种情况下都能够表现出安全性和稳定性。通过这一计划的正式发布,OpenAI旨在与外部专家建立更为密切的合作关系,以提高其AI模型的整体安全性和可靠性。
“红队”网络的成员将根据其专业领域在整个模型和产品开发生命周期中协助进行风险评估。这意味着他们将能够提供多样化和持续的专业意见,有助于将红队成为一个不断迭代的过程。值得一提的是,OpenAI的行动号召向全球各地的专家敞开大门,无论他们之前是否拥有人工智能系统或语言模型的经验。
参与红队项目的网络成员将获得报酬,同时还将有机会与其他专家就一般红队实践和经验教训进行互动。值得注意的是,这些专家不会受到限制,可以自由发表研究或追求其他职业机会,但他们必须遵守保密协议(NDAs)。
OpenAI的“红队”网络计划无疑是为了加强其AI模型的安全性,并通过吸引来自不同领域的专家,使其能够更全面地评估和改进其技术。这一举措有望为人工智能的未来发展提供更坚实的基础,确保其在各个领域的应用都能够更加可靠和安全。
人工智能模型透明度评估:Llama 2位列第一,GPT-4透明度不佳
要点:1.十大主流AI模型的透明度正在受到关注,其中Llama2在透明度评估中位列第一,而GPT-4等模型的透明度不佳。2.斯坦福大学、MIT、普林斯顿大学等团队提出了“基础模型透明度指数”,对十个主流模型的透明度进行评估,结果显示透明度普遍不高。3.尽管有开源模型如Llama2等获得较高评分,但整体而言,AI行业的透明度不足,对模型构建过程、数据来源和劳动力等关键方面缺乏透明。站长网2023-10-21 10:26:110001科学家公布最新全球红树林分布数据集
海南儋州新英红树林。(资料图)贾明明供图海南海桑红树林。(资料图)贾明明供图记者近日从中国科学院东北地理与农业生态研究所获悉,中美两国科学家最新联合研究表明,全球红树林生境较为破碎,截至2020年,全球红树林斑块约有33.7万个,其中95%以上斑块的面积小于1平方千米。站长网2023-05-25 06:12:130000微信:进一步加强发布血腥暴力不当内容的治理力度
昨日,微信官方表示,近日,网红博主虐猫并在网络传播相关视频一事引发社会关注,根据公安机关通报,该名博主已被依法予以治安拘留。虐杀动物并制作、传播相关血腥暴力内容,甚至以牟利为目的在网络上进行诱导传播的行为,将会对其他用户产生不良引导,引发公众不安情绪,严重破坏了网络传播秩序。站长网2023-05-12 08:48:380000百度:在未来几个季度加大对大语言模型和生成式AI的投入
今日,百度发布了2023年第二季度财报,该季度百度总营收达到了341亿元,同比增长15.2%。站长网2023-08-22 22:30:450000三星因机密信息泄露禁止 OpenAI 的 ChatGPT、Google Bard、Bing AI
在三星可能面临的机密信息泄露问题近一个月后,这家韩国科技巨头禁止员工使用流行的生成式人工智能工具。出于安全考虑,三星电子已禁止员工使用ChatGPT、GoogleBard和Bing等流行的生成式AI工具,正准备推出内部工具。公司内部备忘录显示,三星电子担心传输到生成式AI平台的数据被存储在外部服务器上,导致其难以被追回和删除,并可能最终被泄露给其他用户。站长网2023-05-02 15:47:180000