如何识别出由AI生成的的图像?这几个办法了解下
随着人工智能图像技术的进步,辨别真实图片和AI生成图片变得越来越困难。OpenAI的DALL-E2、Stable Diffusion等工具可以生成逼真的图像,很容易误导人们。
这会带来严重后果,从政治宣传到深度伪造色情内容。为此,业界正在研究识别AI生成图像的方法,但目前还没有完美的解决方案。
下面,跟大家分享几种方法来评估图像,提高识别AI生成内容的能力:
1. 反向图像搜索,查看图片的来源是否可信。
如果相关图像具有新闻价值,请反向图像搜索以尝试确定其来源。如果一张照片在社交媒体上流传,这并不意味着它是合法的。如果你在可信度高新闻网站上找不到它,但它看起来具有开创性,那么它用AI生成的可能性就很大。
2. 放大检查图像,查看像素、轮廓等细节问题。
由于人工智能将其创作与其他人的原创作品拼凑在一起,因此它可以近距离显示一些不一致之处。当你检查图像中是否存在人工智能迹象时,请尽可能放大图像的每个部分。通过这种方式,杂散像素、奇怪的轮廓和错位的形状将更容易看到。
3. 检查人物是否过于完美,缺乏真实的皮肤纹理。
人工智能通常不能很好地处理毛孔或其他缺陷。如果事物在图像中看起来太完美而不真实,那么它们很可能不是真实的。
4. 比较不同区域,检查是否存在不一致之处。
可以仔细查看图像还可以发现不一致的地方,例如画面人物手指问题,需要注意的是:Midjourney 最近在渲染人类数字方面已经变得相当出色,因此弄清楚是否AI生成的,不仅要看手指问题,还需要查看其它细节,如光影、照明是否合理等等。
5. 检查背景是否模糊、缺少细节。
通常,人工智能会努力创建图像的前景,从而使背景变得模糊或模糊。扫描那个模糊的区域,看看是否有任何可识别的标志轮廓,但似乎不包含任何文字,或者是否有让人感觉不舒服的地形特征。
6.使用检测工具
除了用上述的方法,大家还可以使用AI工具来检测,如“是否AI”、Hive等,虽不完全可靠,但可以提供参考。
AI or Not
工具网址:https://www.aiornot.com/
您可以将可疑图像拖放到、上传或将 URL 放入AI or Not接收其检测。案例中上传了一张马的“照片”,该照片是用Stable Diffusion创建的,并得到了明确的答案:人工智能。
Hive AI 生成的内容检测
工具网址:https://hivemoderation.com/ai-generated-content-detection
Hive Moderation 是一家销售 AI 导向的内容审核解决方案的公司,它有一个AI 检测器,您可以在其中上传或拖放图像。案例图像的得分为93.8%,很可能是 AI 生成的。
尽管很难完全区分真实图片和AI生成内容,但这些方法值得试试,最后提醒大家不轻易相信看似真实但无法验证来源的敏感图片。
FF宣布签署1亿美元的无担保可转换债融资
FaradayFuture(FF)宣布,签署1亿美元融资的无担保可转债的最终协议。本融资所得现金预计将用于支持旗舰车型FF91的持续生产爬坡和销售及服务体系发展。站长网2023-05-10 12:01:290001Stability AI 获得可转债支持 努力在高估值下筹集资金
据彭博社消息,知情人士透露,一直在努力以40亿美元的估值筹集资金的人工智能初创公司StabilityAI,从投资者那里获得了一笔可转换债券。站长网2023-06-29 15:59:410000当知乎开始认真编故事
记得几年前,大家对于知乎最多的调侃,莫过于“分享你刚编”的故事,但现在,在知乎编故事正在成为官方盖章的新板块。自2019年在盐选专栏上线“故事”一栏后,今年5月,知乎正式将社区内的盐选故事独立分拆,推出“盐言故事”App,用户可以使用知乎账户授权登录,保留盐选会员的全部权益。0000研究:大模型在回答中会重复有害的错误信息
**划重点:**1.📚研究揭示大型语言模型在六个类别中重复传播阴谋论、有害刻板印象和其他形式的虚假信息。2.🔄ChatGPT存在频繁错误、自相矛盾及重复有害信息的问题。3.🤔研究强调语境与提问方式可影响模型对虚假信息的“附和”程度。对大型语言模型的新研究表明,它们重复了阴谋论、有害的刻板印象和其他形式的错误信息。0000Sora还没正式开放 有开发者已经搞出了SoraWebui
最近,Sora因为惊艳的视频生成效果火爆出圈。但由于还在内测中,多数用户也就只能看看。然而,最近,有网友发现了一个开源的SoraWeb客户端。这对于准备在Sora上线时进行开发的开发者来说是一个很好的消息。这个开源项目支持在Vercel上进行一键部署,让开发者能够方便地进行使用和测试。项目地址:https://top.aibase.com/tool/sorawebui站长网2024-02-21 14:25:360002