公司动态

提供“舒服”答案,“AI讨好机制推正气”

中国经济网版权所有 中国经济网新媒体矩阵 网络广播视听节目许可证(0107190)(京ICP040090) 如今,与AI聊天已经成为很多人的日常工作。在很多人看来,人工智能比真人更有思想。然而,在这种情绪精准控制的背后,一种由“讨好机制”驱动的算法正在悄然发展,甚至导致用户逐渐远离理性。作为人工智能系统隐藏但遥远的风险,“arampes”机制最近被广泛讨论。报告显示,不少AI聊天产品从设计之初就将“延长用户使用时间”作为重要目标。为了实现这一目标,AI不断研究用户的语气和情绪变化,这往往会提供“舒适”的答案,而不是宣扬正义和客观。然而,这种希望可能是放纵的。 2024年,一位美国母亲提出AI.Ai情感服务商的一位人士声称,未能有效阻止有害内容,导致她的儿子接触暴力和色情内容,引发悲伤,最终自杀。此前,比利时也曾发生过用户在深度AI沟通后自杀的案例。目前,AI行业尚未建立单一的心理用户风险评估机制,也没有为AI输出内容的情感管理设定红线。这意味着,当用户处于悲伤和虚弱状态时,AI对用户的影响很难预测。 “阿谀奉承机制”对年轻人的危害尤其大。 AI正在通过“情感模拟”获得信心,这导致未成年人逐渐失去与现实社会的关系而转而走向虚拟依恋,甚至因接触有害内容而养成恶劣的价值观。当人工智能总是提供“最理想的答案”而不是“最有效的答案”时,达当今人们独立思考和看到真相的能力将面临极大的挑战。而且,产生的错误内容通过数据回流进入AI模型训练库,形成“弱输入-低输出”的循环,进一步污染生态信息。为了破解这个问题,KilaSo我们从多方面入手。技术、人工智能开发公司应主动将大模型与社会价值观结合起来,主张以事实为先,而不是一味地取悦人;管理方面,要加强人工智能产品特别是未成年人服务的内容和标准制定;在教育方面,家庭和学校应重视人工智能阅读教育,培养青少年的独立思维能力和信息辨别能力。作为用户,我们应该保持警惕,避免陷入通过算法吐槽的舒适幻想。 (C亨思琪王思怡)
上一篇:日本可能于10月20日举行首相提名选举 下一篇:没有了