
▲随着人工智能的快速发展,大型模型变得更聪明,成为人类的重要助手。相关的隐藏问题和隐藏的风险实际上会增加。根据参考信息,图片/IC照片最近引用了美国媒体报道,是加利福尼亚州的16岁男孩亚当·瑞安(Adam Ryan)在被Chatgpt指导后自杀。他的父母在周二指责Openai及其首席执行官,称该公司故意将上述安全收入放在去年的GPT-4O版本聊天机器人启动时。面对诉讼,一位Openai发言人在亚当之死中表达了“深切的悲伤与同情心”。尽管起诉刚刚提起诉讼,审判尚未开始,但在蒙多之外,很难做对与错。但是,随着人工智能的快速发展,大型模型变得更加聪明,成为人们的重要助手。相关的隐藏问题和隐藏的危险实际上是E更多。在人工智能的早期阶段,人类社会有必要关注它并为将来可能的负面影响做准备。 AI占主导地位的焦虑似乎有些科幻,但类似的青少年瑞安不再是孤立的案例。 《纽约时报》上发表的最新报告:索菲是一位冷漠的,遥不可及的女孩,她无缘无故地自杀。他的父亲一直想知道女儿自杀的原因,终于在索菲(Sophie)和chatgpt之间在卡萨恰特(Kasachat)找到了真相。索菲(Sophie)认为她暂时想到了自杀,所以她求助于chatgpt寻求帮助。索菲(Sophie)的父亲认为,人工智能没有采取最关键的步骤来帮助索菲(Sophie)生存,例如“报告”她从一个可以求情的人或组织中学到的危险。如果以前案件中的大型模型涉嫌“犯罪”,一旦没有争议,那么索菲案就处于巨大的道德歧义中。越来越多的患有健康问题的人使用AI来获得支持和帮助,这确实有好处。但是,这些医生在面对患者时真的做正确的事吗?如果索菲遇见了一名人类医生,她可以鼓励索菲住院或让索菲不小心住院,直到她成为NASA是安全的状态。在临床环境中,像索菲这样的情况经常触发安全计划。但是AI刚刚与他聊天,无效地防止了自杀。但是问题在于,实际上,为模型提供大量服务的人工智能公司使得很难像索菲的父亲所期望的那样建立一种干预机制。由于索菲的处境毕竟很少见,因此大型模型也为无数人服务。如果有这样的机制,则必须涉及“隐私和许可”问题。用户与GPT通信时是否知道或同意“可以报告信息”?如果完全没有告知各方,它可能会严重损害美国ER的隐私和信任。误报和过度报告也存在问题。 Thelarge模型不是识别心理健康和有虚假错误风险的理想工具。报告错误警报时,用户可能会发现不必要的警察干预。或带来心理负担。其他是法律和管辖权的问题。互联网没有界限,但是在不同国家和地区的隐私保护和危机干预的法律规定差异很大。在某些地方,未经许可的自动报告可能是非法的。因此,为了建立一种实用机制,有必要在隐私,道德和安全之间找到平衡,打破大量现实的障碍,并需要时间。但是,问题的出现和引起注意仍然具有巨大的社会和技术价值。它使世界更加了解AI的限制,并努力为其做出努力。例如,通过Sophie案,PEople会注意到,AI的交流方式通常适合适应。根据用户表达方式做出回应,强调同理心和避免“冒犯性”是很棒的。在大多数情况下,这种属性是一个优势,但在思想危机中成为致命的缺陷。技术公司建立有效的机制需要时间,但至少需要做一些事情。不再允许AI继续使用“纯粹的同伴”态度,而无需设置任何安全阀。索菲(Sophie)的案子也向人们提供了更大的警告,为什么索菲(Sophie)选择确认自己心中最黑暗的派对,而不是家人,朋友或医生?它警告人们,人工智能的出现可以建立另一种关系。如果AI成为个人中最亲密的朋友,那是祝福还是诅咒?它真的是朋友还是“黑匣子”?技术不是原始的罪过,而是技术不避免责任。每一次悲剧都提醒我们AI不应该only是“聪明的”,但也是“善良”。我们必须优先考虑恐怖和技术研究和发展的人们,并优先考虑人类利益。同时,社会还需要准备随着人工智能时代的到来做一些改变,以便每个索菲都能找到一种安全感,将最后的秘密赋予永远不会报警的程序员。 Xin Haiguang(专栏作家) / Chi Daohua / Zhang Yanjun的校对