研究人员设计机器学习模型以更好地预测青少年自杀和自残风险
站长网2023-09-05 10:47:190阅
文章概要:
1. 澳大利亚青少年中自杀和自残现象十分普遍,需要更好的风险评估方法。
2. 研究人员使用机器学习模型分析了多种潜在风险因素,发现情绪问题、学校家庭环境等都是重要预测因素。
3. 相比仅考虑过去尝试史,这些模型可以更准确预测未来自杀自残风险。
新南威尔士大学的最新研究显示,人工智能可以帮助识别青少年自杀和自伤的风险因素。
研究人员使用澳大利亚一项纵向追踪调查的参与者数据,这些14-17岁青少年中有10.5%报告有自伤行为,5.2%报告最近一年至少一次自杀尝试。
研究收集了超过4000个潜在风险因素数据,然后使用机器学习模型分析哪些因素最能预测未来的自杀自伤行为。
图源备注:图片由AI生成,图片授权服务商Midjourney
结果显示,抑郁、焦虑、行为问题、自我认知及环境压力是最重要的风险预测因素。另外,之前的自杀企图反而不是主要的预测因子。这与当前仅依据历史尝试评估风险的做法不同。研究还发现,学校和家庭环境对青少年心理健康的影响可能大于先前的认知。
研究人员根据确定的最重要的风险因素创建了机器学习模型,以预测研究参与者的自杀和自残行为,这些模型能够比标准方法更准确地预测尝试。
研究人员认为,这样的机器学习模型可以辅助临床评估青少年的自杀自伤风险。但是还需要在实际患者数据上验证模型的准确性。
研究人员表示,像这样的机器学习模型可以支持临床医生评估青少年患者的自杀和自残风险。“根据患者信息,机器学习算法可以计算每个人的分数,并且可以将其集成到电子病历系统中。临床医生可以快速检索该信息以确认或调整他们的评估。”
利用大数据和人工智能可以更准确预测青少年的自杀自伤风险,以便及早干预。但是模型也需要考虑诸多社会和环境因素,而不仅仅依赖个体心理状况。
0000
评论列表
共(0)条相关推荐
AI前哨|谷歌CEO最新专访实录:十个AI问题 事关人类生存发展
凤凰网科技讯《AI前哨》北京时间6月13日消息,面对来势汹汹的ChatGPT,谷歌CEO桑达尔皮查伊(SundarPichai)周一在接受采访时称,在某些人工智能(AI)领域,公司确实落后了。但是,他并不急于快速推进公司的前进步伐,因为谨慎很关键。以下是皮查伊的采访摘要:1.和竞争对手的进展相比,你对谷歌聊天机器人巴德(Bard)的现状满意吗?0000Google DeepMind提出DRaFT算法以高效优化扩散模型
要点:1、GoogleDeepMind提出了直接奖励微调(DRaFT)的概念,可以高效微调扩散模型以最大化可微的奖励函数。2、引入DRaFT-K和DRaFT-LV算法,限制反向传播步数,提高效率。实验证明优于全反向传播。3、在StableDiffusion1.4上应用DRaFT,结果显示其效率远超基于强化学习的微调基线。DRaFT-LV效率最高。站长网2023-10-09 10:47:120000AI生成前端代码项目“Coffee” 开发速度提高10倍
Coffee是一款旨在通过人工智能提高前端开发效率的工具。它可以生成干净、可维护的前端组件代码。该项目还拥有令人兴奋的交互功能,用户只需在代码中添加一个“Coffee”标签,并在其中编写对组件的要求,就可以生成对应的前端组件。代码地址:https://github.com/Coframe/coffee站长网2023-12-15 14:20:280000FF推出开发者共创官招募平台 贾跃亭:FF91将征服全球著名赛道
美国智能电动出行生态系统公司FaradayFuture(FF)发布了首辆FF912.0FuturistAlliance交付仪式视频,并推出了FF开发者共创官在线招募平台。首位新车交付用户来自加州的PrivateCollectionMotors,他们也成为了FF开发者共创官,并将为FF提供共创服务。站长网2023-08-16 14:06:140000国家金融监管总局:警惕AI新型技术诈骗风险
随着AI技术的广泛应用,一些不法分子也将其用于实施诈骗。近日,国家金融监督管理总局发布消费者权益保护风险提示,提醒广大公众警惕利用AI新型技术实施的两种诈骗手段“拟声”和“换脸”。“拟声”指利用AI技术合成他人声音,“换脸”是利用AI技术伪造他人脸部图像。这两种手段都可以制作出非常逼真的音频、视频和图片,用来冒充亲友或其他熟人,诱导受害人汇款或提供敏感信息。站长网2023-10-16 09:05:550000