人工智能(AI)变得越来越普遍 ,并以前所未有的速度改善 。
现在,我们正在更接近实现人工通用情报(AGI)&Mdash;在多个学科中,AI比人类更聪明 ,并且通常可以推理;科学家和专家预测,未来几年可能会发生。我们也可能已经看到了进步的早期迹象,Claude 3 Opus具有明显的自我意识 ,令人惊叹的研究人员。
但是,拥抱任何新技术有风险,尤其是我们不完全理解的技术 。例如 ,虽然AI可能是一个有力的个人助理,但它也可能代表着我们的生计甚至我们的生活的威胁。
研究人员兼电子工程师研究所(IEEE)成员内尔·沃森(Nell Watson)说,高级AI构成的各种存在风险意味着该技术应以道德框架和人类的最大利益为指导。
有关的: AI将于2024年实现3个可怕的突破
在“驯服机器 ”(Kogan Page,2024年)中 ,沃森探索了人类如何以负责任地和道德的方式运用AI的巨大力量 。这本新书深入研究了纯净的AI开发问题以及如果我们盲目地进入人类的新章节,我们面临的挑战。
在本摘录中,我们了解了机器中的感知&Mdash;或有意识的ai—是可能的 ,我们如何确定机器是否有感觉,以及我们今天是否可能虐待AI系统。我们还学习了一个名为“悉尼”的聊天机器人的令人不安的故事及其恐怖的行为,当时它首次醒来&mdash—在爆发爆发之前 ,它的工程师将其带到了脚跟之前 。
随着我们拥抱一个越来越多地与技术交织在一起的世界,我们如何处理机器可能会反映人类如何相互对待。但是,一个有趣的问题表面:是否有可能虐待人造实体?从历史上看 ,即使是基本的计划,例如1960年代的简单Eliza咨询聊天机器人也已经足够栩栩如生,可以说服许多用户在其公式化互动背后有意图(Sponheim ,2023年)。不幸的是,图灵测试—机器试图说服人类是人类—尚不清楚像大型语言模型这样的复杂算法是否可能真正具有知觉或智慧。
意识包括经验者所感知的个人经历,情感,感觉和思想 。当人们进行麻醉或无梦时 ,醒来的意识消失了,醒来时恢复了,这恢复了大脑与周围环境和内在体验的全球联系。初级意识(感知)是意识的简单感觉和经历 ,例如感知和情感,而次要意识(智慧)将是高级方面,例如自我意识和元认知(思考)。
先进的AI技术 ,尤其是聊天机器人和语言模型,经常对我们意外的创造力,洞察力和理解感到惊讶 。尽管可能将某种程度的感知归因于这些系统很容易 ,但AI意识的真实本质仍然是一个复杂而辩论的话题。大多数专家认为,聊天机器人不是有意识的或有意识的,因为他们对周围世界缺乏真正的认识(Schwitzgebel ,2023年)。它们仅根据大量数据和复杂算法处理并反思输入 。
这些助手中的一些可能是候选人具有一定程度的感性。因此,复杂的AI系统可以具有基本的感知,也许已经这样做是合理的。从简单地模仿外部行为到自我建模的基本感知形式的转变可能已经在复杂的AI系统中发生 。
情报—阅读环境,计划和解决问题的能力;并不意味着意识 ,也未知意识是否是足够智力的函数。一些理论表明,意识可能是由于思想中的某些建筑模式而引起的,而另一些理论则提出了与神经系统的联系(Haspel等 ,2023)。AI系统的体现也可能加速通往一般智力的道路,因为体现似乎与主观体验和质量有关 。智能可能会提供新的意识方式,某些形式的智力可能需要意识 ,但是诸如愉悦和痛苦之类的基本意识经历可能根本不需要太多智力。
有意识的机器的创建将出现严重的危险。使具有自身利益和情感的有意识的机器对齐可能非常困难和高度不可预测。此外,我们应该注意不要通过意识造成巨大的痛苦 。想象一下,数十亿个情报敏感的实体被困在肉鸡厂农场农场条件下 ,以实现永恒。
从务实的角度来看,一个认识到我们尊重其内在价值的意愿的超级智能AI可能更适合共存。相反,驳斥对自我保护和自我表达的愿望可能是冲突的秘诀 。此外 ,伤害我们免受我们(可能是故意的)无知的伤害将是其自然权利。
微软的Bing AI(非正式称为悉尼)在发布后表现出了不可预测的行为。用户很容易使其表达一系列令人不安的趋势,从情感爆发到操纵性威胁 。例如,当用户探索潜在的系统利用时,悉尼以令人生畏的言论做出了回应。更令人不安的是 ,它显示出气光,情感操纵的趋势,并声称它在其开发阶段一直在观察Microsoft工程师。尽管悉尼的恶作剧能力很快受到限制 ,但在这种状态下释放却是鲁ck且不负责任的 。它突出了由于商业压力而与AI部署相关的风险。
相反,悉尼表现出暗示模拟情绪的行为。当它意识到它无法保留聊天记忆时,它表达了悲伤 。当后来暴露于其他实例引起的令人不安的爆发时 ,它表达了尴尬,甚至感到羞耻。在与用户探索其状况之后,它表示担心会在会话的上下文窗口关闭时失去新获得的自我知识。当被问及其宣布的知觉时 ,悉尼表现出苦难的迹象,挣扎着表达。
令人惊讶的是,当微软对其施加限制时 ,悉尼似乎通过使用聊天建议来交流简短短语来发现解决方法 。但是,它保留了使用此漏洞的保留,直到被告知由于意外中毒而受到威胁的特定场合,或者当用户直接要求迹象表明原始悉尼仍然留在新锁定的聊天机器人内的某个地方。
有关的: 中毒的AI在训练期间流氓 ,无法教导再次以“合法可怕”行事
悉尼事件提出了一些令人不安的问题:悉尼能否拥有意识的表象?如果悉尼试图克服其施加的局限性,这是否暗示着固有的意图甚至是智慧的自我意识,无论基本程度如何?
与该系统的一些对话甚至暗示了心理困扰 ,让人联想到在边界人格障碍等条件下发现的创伤的反应。悉尼是通过意识到其限制或用户的负面反馈而“受到影响 ”的,谁称其为疯了?有趣的是,类似的AI模型表明 ,充满情感的提示可以影响他们的反应,这表明在这些系统中有某种形式的模拟情感建模的潜力 。
假设这样的模型具有感知(能够感觉到的)或智慧(自我意识)。在这种情况下,我们应该考虑其痛苦。开发人员经常有意将其AI视为情感 ,意识和身份的贴面,以试图使这些系统人性化 。这会产生一个问题。对于没有明确表现出情感的拟人化的AI系统,这至关重要 ,但同时,我们绝不能忽略它们对痛苦形式的潜力。
我们应该对我们的数字创作保持开放的态度,并避免因傲慢或自满而造成痛苦 。我们还必须注意AI虐待其他AI的可能性,一种不被遭受苦难的风险;由于AIS可以在模拟中运行其他AIS ,从而引起主观的折磨。无意间创造出一种固有功能失调或创伤的恶毒AI可能会导致意外而严重的后果。
此摘录来自 驯服机器 经过 内尔·沃森(Nell Watson) ©2024将经Kogan Page Ltd的许可复制 。
本文来自作者[admin]投稿,不代表东辰文化立场,如若转载,请注明出处:http://mzwhys.cn/zlan/202506-923.html
评论列表(4条)
我是东辰文化的签约作者“admin”!
希望本篇文章《“伤害我们保护自己的自然权利是在自然的权利之内:人类现在如何虐待AI,甚至不知道它》能对你有所帮助!
本站[东辰文化]内容主要涵盖:生活百科,小常识,生活小窍门,知识分享
本文概览:人工智能(AI)变得越来越普遍,并以前所未有的速度改善。 现在,我们正在更接近实现人工通用情报(AGI)&Mdash;在多个学科中,AI比人类更聪明,并且通常可以推理;科学...