CatBERTa:一种基于 Transformer 的AI模型 能够处理人类可理解的文本数据
CatBERTa 是一种基于 Transformer 的人工智能模型,旨在通过文本输入进行能量预测。该模型建立在预训练的 Transformer 编码器之上,这是一种在自然语言处理任务中表现出色的深度学习模型。
CatBERTa 的独特之处在于它能够处理人类可理解的文本数据,并添加用于吸附能量预测的目标特征。这使得研究人员可以以简单易懂的格式提供数据,提高了模型预测的可用性和可解释性。
论文地址:https://arxiv.org/abs/2309.00563
研究发现,CatBERTa 倾向于集中关注输入文本中的特定标记。这些指标与吸附物(附着在表面上的物质)、催化剂的整体组成以及这些元素之间的相互作用有关。CatBERTa 似乎能够识别和重视影响吸附能量的催化系统的关键因素。
研究还强调了相互作用原子作为描述吸附排列的有用术语的重要性。吸附剂中的原子与块体材料中的原子相互作用对于催化至关重要。有趣的是,与吸附能量的准确预测几乎没有影响的是链接长度和这些相互作用原子的原子组成。这个结果表明,CatBERTa 可能会优先考虑任务的重要内容,并从文本输入中提取最相关的信息。
在准确性方面,CatBERTa 在吸附能量预测中显示出0.75电子伏特的平均绝对误差(MAE)。这个精度水平与广泛使用的图神经网络(GNNs)相当,用于进行此类预测。CatBERTa 还具有额外的好处,即对于化学上相同的系统,从 CatBERTa 估计的能量可以通过彼此相减有效地消除系统误差,达到19.3%。这表明,CatBERTa 有潜力大大减少催化剂筛选和反应性评估中预测能量差异的错误,这是催化剂研究中至关重要的一部分。
总之,CatBERTa 提供了一种可能的替代传统的 GNNs 的方法。它展示了提高能量差异预测精度的可能性,为更有效和精确的催化剂筛选程序打开了大门。
提及了31次!天猫2024年大计划重度倾斜私域
于昨日(4月2日)的TopTalk2024天猫超级品牌私享会上,天猫发布了新一年度的品牌经营策略。其中聚焦于让品牌商家获得未来可期的生意增长,平台将更重视通过营销和全域运营手段,为品牌获取、积淀更多用户资产。不过,见实数了数,天猫不同高管分别提及了31次私域、9次公域,11次全域。私域成为现场最高频出现的词汇之一。这显示出,私域运营、公私域打通等是今年天猫新计划中被重度倾斜的内容。0000韩国提出以「GOV-GPT」形式在内部自主开发 AI 模型
据韩联社消息,虽然三星电子等大公司正在限制内部使用生成人工智能(AI),现在公共部门也出现了抑制AI使用的氛围。日前据业内人士和当局透露,韩国国家情报院提出对各部门公务员的要求注意事项,强调在使用OpenAI的GPT系列时,只能输入公开信息,科学部、信息通信部等部门也向相关部门提供指引,它发布了AI安全指南以供遵循。站长网2023-05-08 09:47:500000Midjourney:伟大的公司只需要十一人
在生成式AI、云计算等技术逐渐抹平大企业与中小企业之间的技术、成本差距后,各企业真正比拼的,只剩下人才、创意与执行力。目前,随着AI技术的快速迭代,各种基于AIGC(人工智能内容生成)技术的产品不断涌向社会,而其中最普遍的,则莫过于大量的AI绘图模型,如Midjourney、Dreambooth、NovelAI和StableDiffusion等。站长网2023-04-26 14:04:100000特斯拉车机将可使用苹果播客 应用实时同步内容
特斯拉X平台官方账号近日发布一则消息,宣布苹果播客(Podcast)应用将在下周推出。据特斯拉计划,在未来的“2023假日更新”中,用户将能够在其汽车的启动器上发现苹果播客App。0000商汤科技推出AI大模型智能编程助手“代码小浣熊 Raccoon”
商汤科技推出了基于大语言模型的智能编程助手——代码小浣熊Raccoon,并开放公测。代码小浣熊支持30主流编程语言和主流IDE,可以帮助开发者提升编程效率。通过与商汤的大语言模型结合,代码小浣熊具备强大的代码生成和中文语言理解能力。用户可以在编辑器内触发代码补全,也可以通过对话框进行交互。站长网2023-12-07 16:38:220000