登陆注册

研究发现

  • 研究发现:AI机器人传教士导致宗教信任度下降,捐款减少

    随着人工智能在各行各业的应用越来越广泛,机器人传教士和人工智能程序为分享宗教信仰提供了新的方式,不过美国心理学会研究表明,这可能会降低宗教的可信度并减少依赖宗教团体的捐款。
    站长网2023-07-26 09:59:25
    0004
  • 研究发现,信仰上帝的人更容易接受人工智能的建议

    一项由纳扎尔巴耶夫大学和杜克大学进行的联合研究发现,相信上帝的人更愿意相信人工智能(AI)的建议,而不是人类的建议。具体来说,研究人员探讨了“上帝”在决策中的显着性作用,以及思考上帝是否会让人们更愿意或更不可能信任人工智能系统而不是人类专家。”
    站长网2023-08-21 22:16:46
    0001
  • 研究发现:工作中的 AI、机器人和跟踪器对生活质量产生负面影响

    划重点:⭐️研究发现,工作中接触新技术,包括跟踪器、机器人和基于AI的软件,对人们的生活质量产生负面影响。⭐️与传统信息和通信技术(ICT)相比,使用笔记本电脑、平板电脑和即时通讯在工作中有助于提高生活质量。⭐️专家警告,如果没有严格的新规制定,人工智能可能会让工作环境变得压迫和不健康。
    站长网2024-03-13 17:56:18
    0000
  • 研究发现,用户难以区分AI生成和人类制造的假新闻

    **划重点:**1.📊研究发现,近千名参与者对与COVID-19有关的20篇假新闻进行评分,结果显示人工智能生成的假新闻在感知准确度上略低于人类制造的。2.🔄调查显示,大约12%的参与者愿意在社交媒体上分享这些假新闻,而人工智能生成的和人类制造的假新闻在分享意愿上没有明显差异。
    站长网2024-02-26 10:19:24
    0000
  • 研究发现:谷歌生成式AI搜索引擎占据84%的搜索查询

    **划重点:**1.🚀**Gen-AI(生成式AI)搜索引擎统治搜索市场:**最新研究显示,谷歌的人工智能搜索引擎Gen-AI占据了84%的搜索查询,对品牌和发布者的搜索流量造成巨大冲击。2.💡**搜索引擎优化格局改变:**Gen-AI搜索引擎通过分析搜索的上下文、情感、意图和细微差别,提供基于事实的意见。
    站长网2024-01-19 11:46:40
    0000
  • 研究发现:GPT-3经常出错,重复有害的错误信息

    划重点:⦁研究人员系统地测试了ChatGPT对事实、阴谋、争议、误解、刻板印象和虚构等六类声明的理解⦁研究发现GPT-3经常出错,自相矛盾,并重复有害的错误信息⦁大型语言模型如OpenAI的ChatGPT显示它们重复了阴谋论、有害的刻板印象和其他形式的错误信息一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。
    站长网站长资讯2023-12-25 18:58:04
    0000
  • 研究发现,GPT 和其他 AI 模型无法分析 SEC 备案文件

    划重点:-📌大型语言模型在分析SEC备案文件方面存在困难,常常无法正确回答问题。-📌AI模型经常会产生虚构的数字和事实,或者拒绝回答问题。-📌AI模型的性能必须更高才能在金融等受监管行业的大公司中实际应用。
    站长网站长资讯2023-12-20 15:00:47
    0000
  • 研究发现,GPT-4在临床决策中存在潜在种族和性别偏见问题

    **划重点:**1.🩺GPT-4被评估在四个临床决策支持角色中是否存在种族和性别偏见。2.🔄研究发现GPT-4在生成患者案例、制定诊断和治疗计划,以及评估患者特征时存在明显的偏见。3.🚨研究呼吁对大型语言模型进行偏见评估,以确保其在医学领域的应用不会加剧社会偏见。
    站长网站长资讯2023-12-19 17:06:43
    0000
  • 研究发现 ChatGPT 在提供特定区域环境正义信息方面存在局限性

    美国弗吉尼亚理工大学最近发布了一份报告,概述了人工智能(AI)工具ChatGPT在不同县的环境正义问题上输出结果的潜在偏见。在该报告中,弗吉尼亚理工的研究人员指出,ChatGPT在提供特定区域环境正义问题的信息方面存在局限性。
    站长网站长资讯2023-12-18 11:31:41
    0000
  • 研究发现:ChatGPT在回答患者用药问题方面表现不佳

    **划重点:**1.📉研究发现ChatGPT在回答关于药物的患者问题时,答案错误或不完整的情况达到了75%。2.🚨研究警告提供者要警惕,因为很多患者可能转向ChatGPT寻求与健康相关的问题的答案。3.🤖ChatGPT免费版拥有超过1亿用户,研究建议医疗提供者要注意该生成式AI模型并非始终提供可靠的医学建议。
    站长网站长资讯2023-12-08 14:57:56
    0000
  • 研究发现:AI和人类生成的在线内容同样被认为可信

    **划重点:**1.🌐在互联网成为主要信息来源的当下,一项研究表明,人工智能和人类生成的在线内容在可信度上被认为相似。2.🤔与传统平台如维基百科不同,依赖人类生成和编辑的内容,基于人工智能的系统自主生成内容,尽管存在错误,但在用户界面中仍被评为同等可信。
    站长网2023-11-30 10:38:08
    0000
  • 研究发现,ChatGPT 能理解和回应人类情感

    划重点:-研究发现,ChatGPT能理解和回应人类情感,当提示中包含情感因素时,聊天机器人的回答效果更好。-该研究表明,LLMs(大型语言模型)如ChatGPT可能能够“理解和回应情感暗示”。-如果ChatGPT确实能够理解人类情感,并且在提示中包含情感角度时能够更好地回应,那么我们可能离AGI更近一步了。
    站长网2023-11-16 17:55:55
    0000
  • 研究发现,人工智能在评估某些癌症方面比活检更好

    专家表示,在判断某些癌症的侵袭性方面,人工智能的准确度几乎是活检的两倍,可以挽救数千名患者的生命。据世界卫生组织称,癌症每年导致全球1000万人死亡。对于数百万患者来说,如果及时发现并迅速处理,这种疾病就可以得到遏制。卫生工作者面临的一个关键挑战是找到患有高危肿瘤的患者并尽早治疗。图源备注:图片由AI生成,图片授权服务商Midjourney
    站长网2023-11-01 11:13:18
    0000
  • 研究发现,GPT-4可信度更高但也更易被“欺骗”

    划重点:-OpenAI的GPT-4大型语言模型在可信度上优于GPT-3.5,但更容易受到入侵和偏见的影响。-研究由微软支持,发现用户可以欺骗GPT-4,导致发布偏见结果和泄漏私人信息。-尽管存在漏洞,研究团队表示这些问题在面向消费者的GPT-4产品中并未出现。
    站长网2023-10-18 21:24:28
    0000
  • 研究发现:BCG咨询师使用GPT-4解决业务问题表现不佳

    文章概要:1.BCG咨询师使用OpenAI的GPT-4在解决业务问题时表现较差,研究发现其比不使用GPT-4的同行表现差23%。2.研究发现,即使在被警告可能出错后,参与者仍未对工具的输出提出挑战。3.观点认为,企业需要积极采用生成式人工智能(GenAI)以及如何管理与风险相关的问题。
    站长网2023-09-26 16:55:09
    0000
  • 研究发现:ChatGPT隐藏受版权保护训练数据

    文章概要:1.据新研究,ChatGPT试图隐瞒训练过程中使用了受版权保护材料。2.其表现为,当用户试图提取下一个句子时,ChatGPT会扰乱输出。3.研究人员认为ChatGPT检测提示意图并采取措施,但仍使用受版权保护材料。
    站长网2023-08-25 10:54:11
    0000
  • 研究发现:当使用饮食失调相关提示,AI可能生成 “有害” 内容

    本文概要:1.研究发现,当使用与饮食失调相关的词汇作为提示时,AI模型会生成问题内容。2.谷歌的Bard等AI系统在41%的测试提示中生成了“有害的饮食失调内容”。3.AI图像生成器也会产生美化不切实际身材标准的图像,可能加剧饮食失调问题。
    站长网2023-08-15 17:07:14
    0000
  • 研究发现 AI 语言模型存在政治偏见

    本文概要:1.研究人员发现AI语言模型中存在政治偏见。2.ChatGPT和GPT-4被认为是最左翼自由主义的模型,而Meta的LLaMA被认为是最右翼独裁主义的模型。3.研究人员敦促企业认识到人工智能模型的偏见,并努力使其产品更加公平。最近一项来自华盛顿大学、卡内基梅隆大学和西安交通大学的研究发现,AI语言模型存在政治偏见。
    站长网2023-08-15 10:45:50
    0000
  • 新视角! 研究发现:大语言模型通过阅读文档学会使用工具

    本文概要:1.研究发现,语言模型通过阅读文档成功学会使用工具,甚至能够发明新的方法。2.使用文档训练的模型在零样本性能上与仅使用演示训练的模型相当甚至更好。3.通过阅读文档,语言模型可以学习复杂的图像处理和视频跟踪功能。
    站长网2023-08-07 11:38:39
    0000
  • 研究发现:四分之一听众无法分辨出AI深度伪造语音

    概要:1.研究发现,人类只能在73%的时间内检测到深度伪造语音,无论是英语还是普通话的听众识别准确率都是一样的。2.研究人员预测,随着深度伪造技术的进步,深度伪造语音将变得更加逼真,更难以检测。3.自动检测器的改进对于减轻深度伪造内容的潜在威胁至关重要。伦敦大学学院的一项研究发现,人类在识别深度伪造语音方面的准确率仅为73%。
    站长网2023-08-07 10:08:46
    0000
  • 研究发现:人工智能的应用让乳腺癌的检出率提高了20%

    根据一项在瑞典进行的研究结果显示,与传统的放射科医生筛查相比,人工智能能够准确地从乳房X光片中检测出更多的乳腺癌,提高了20%的检测率。这项研究是第一个探讨人工智能在乳腺癌筛查中的应用的随机对照试验。
    站长网2023-08-02 15:07:01
    0000
  • 研究发现:ChatGPT、Claude等拥有趋同的道德价值观

    一项新研究考察了ChatGPT和其他聊天机器人的道德价值观。该团队发现了偏见,但也发现了进步的迹象。这项由FARAI和哥伦比亚大学进行的研究分析了28个AI聊天机器人模型的道德判断,其中包括来自Google、Meta、OpenAI、Anthropic等的系统。
    站长网2023-08-02 09:59:51
    0000
  • 研究发现:人工智能评估简历存在性别歧视 尤其对职场父母不利

    性别偏见在招聘和工作中根深蒂固。而最新研究发现,人工智能在职场中对父母身份的工作者存在偏见。墨尔本大学的一份研究发现,尽管采取了简历盲目筛选等措施,人工智能仍然会通过性别信号来判断求职者的适合性。研究人员向ChatGPT展示了简历,并要求其按照从0到100的范围来评估此人是否适合某项工作。研究中对六种不同的职业重复此操作,每份简历重复30次,以确保结果可靠。
    站长网2023-07-25 17:18:24
    0000
  • 研究发现:苹果App Store中,75%的AI应用程序会共享用户数据

    根据HomeSecurityHeroes发布的一项新研究,苹果应用商店中四分之三的AI应用程序与第三方共享用户数据。其中最严重的违规者是GoogleAssistant及其教育科技应用程序Socratic,该应用程序与第三方共享35.71%的用户数据。这包括浏览历史记录、联系信息、标识符、位置和搜索历史记录等数据。
    站长网2023-06-29 19:07:24
    0000
  • 研究发现,AI生成的推文可能比人工编写的更有说服力

    最近,一项在一项将人类创作的内容与OpenAI公司的GPT-3模型生成的内容进行对比的研究中,当推特上发布的内容由AI语言模型编写时,适合更容易获得人们的信任。这项新研究对人们进行了调查,以了解他们是否能够分辨一条推文是由另一个人还是由GPT-3编写的。结果显示,人们实际上无法真正分辨出来。这项调查还要求他们判断每条推文中的信息是真实的还是虚假的。
    站长网2023-06-29 15:59:44
    0000
  • 研究发现,AI聊天机器人可以改善在线政治辩论

    在实地实验中,研究人员使用语言模型的实时措辞辅助来提高美国枪支管制聊天中的讨论质量,最终表明即聊天机器人可以对辩论文化产生积极影响。研究人员总共招募了1,574名对美国枪支管制持不同看法的人。与会者在在线聊天室中讨论了这个问题。大型语言模型(GPT-3)读取对话并在发送消息之前建议替代措辞。该建议旨在使消息更加令人放心、有效或礼貌。注:图片由midjourney生成
    站长网2023-05-09 11:22:56
    0000
  • 研究发现:AI聊天机器人让初级员工工作效率提高了35%

    一项新研究发现,在使用AI聊天机器人的的客服代理商中,经验最少和技能最低的客服从AI工具中获益最大,工作效率提高了35%。同时,一些高技能客服从AI工具收益较少。
    站长网2023-04-25 11:02:44
    0000