防范人工智能引发的伦理风险

2024-12-22 07:03:52 121
联系客服提示-笔笔文库

 

防范人工智能引发的伦理风险

近期,一则外国青少年因过度依赖AI聊天机器人导致自杀的悲剧报道,为社会敲响了警钟。作为生成式人工智能浪潮中重要应用场景,虚拟数字人正悄然成为众多家庭的新成员,以其独特的存在方式为人们提供情感陪伴。在当前社会对生成式人工智能的认知尚不全面的情况下,亟须加强对人工智能发展的伦理风险研判与防范,正视其在初期应用中显现的成瘾性依恋、过度信任倾向,以及长远来看可能诱发的人机关系异化等伦理挑战,实现人工智能的安全、可靠及可控发展。

(一)

自ChatGPT问世以来,各应用商店里提供情感陪伴的人工智能应用花样迭出,从最初的简单聊天机器人,到如今的具有情感交互、个性化推荐等功能的人工智能应用,正在成为生成式人工智能的主流应用,且增长迅速。第一,与AI聊天正在受到年轻人的追捧和跟风。Character.AI是此类应用的代表性产品,专注于角色扮演,用户可以与AI扮演的知名IP虚拟角色聊天互动,获得情绪价值、情感陪伴。该产品上线的前5个月内,用户共发送超过20亿条消息,其中活跃用户平均每天花费超过2小时与AI互动。Character.AI的用户留存率、使用时长和使用次数等指标均远好于ChatGPT,展现出极强的用户黏性。第二,AI应用提供情感支持和陪伴对话,成为应对社交隔离和孤独感的潜在解决方案。斯坦福大学的一项研究显示,使用聊天机器人能有效减少孤独感,可以帮助患有社交恐惧症的人更好地与他人互动。第三,此类应用的成功主要得益于其拟人化设计理念。该设计在增强用户接纳度、使用频率及黏性方面至关重要。通过模拟人类的认知、情感反应和社会行为,AI能够创造出吸引人的用户体验,并显著提高人机交互的效率,进而自然地融入人类社会与文化,构建更加贴近真实人际关系的互动模式。当AI在思考、表达和决策方面更加接近人类时,它们便更容易与用户建立起深厚的情感联系。

(二)

随着商业上的成功,此类应用引起了一些媒体的追捧和炒作。诸如AI觉醒、拥有人类意识等过度夸大、炒作,掩盖了人工智能的现实状况,妨碍了人们建立对人工智能的客观正确认知,可能导致错误的认知以及过度的期望或恐惧,继而引发成瘾依赖、过度信任、人机关系异化等一系列伦理问题。

阅读全文
(想阅读完全部图文内容,您需要先登陆!)
如果喜欢本篇内容,请赞赏鼓励哦!
尚未有人赏赞,赶紧来一个吧
查看更多>>
请选择打赏类型
¥0.01
¥1
¥365
¥188
¥99.99
¥66.6
¥52
¥6.66
¥6
赏赞

分享:

微信扫一扫在手机阅读、分享本文

关于本文

本文标题:防范人工智能引发的伦理风险

链接地址:http://www.bibiwenku.com//index/article/detail/detail_id/380740.html

相关内容
    热门推荐
    • 本周热门
    • 本月热门
        二维码

        微信订阅号

        联系客服

        联系我们