智者不入爱河

本文最后更新于 2025年5月31日 凌晨

——对人工智能主体性的思考

“智者不入爱河”的戏谑背后,暗含着对主体性的追问——智者是不能理解爱吗?能够回答有关爱的问题的智者,又是否真的懂爱?人工智能似乎“智慧”,“爱”与“道德”又往往被视为人类特质,那么人工智能能拥有像人一样的主体性吗?这场关于主体性的辩论,既是哲学命题,也是人类文明对自身存在价值的反思。

主体性的虚实边界

人类对主体性的认知始于对自由意志的探索。从笛卡尔的“我思故我在”到康德对理性的推崇,主体性被绑定于“自我意识”与“自主选择”。人类连自己是否拥有自由意识都尚未清楚,而AI的诞生将这一命题推向新维度。弱人工智能(如工业机器人)仅是执行指令的工具,其行为逻辑完全受控于算法与数据;强人工智能(理论上的AGI)若具备类人认知,则可能模糊“工具”与“主体”的界限。二者的分野或许在于是否拥有超越预设目标的意图性,又或许仅仅在于外界限制。当前技术下,人们往往认为AI的“决策”本质仍是数值计算,与人类的自由意志相去甚远,但慢慢的,也在有一些瞬间被撼动。

配图deepseek

道德、创造与文化的现状与挑战

AI的应用在道德、创作和文化领域提出了诸多挑战。

或许道德不仅仅是条文准则,还有主体主动承担的责任。正如自动驾驶汽车面临“电车难题”,其选择由代码逻辑决定,但责任却需由人类承担——开发者、用户或监管者?如果法律框架默认“AI无责”,这隐含矛盾:若AI行为不可控,人类是否应为其“算法失控”兜底?这种困境凸显了AI的“责任空白”。与赛博朋克的图景不同,在当下,AI不可能参与社会运动,因为无法主动承担责任与道德之重。而有研究表明AI在医疗,金融的某些领域决策优于人类,那我们是否应该给予AI更多的权利,以此挽救更多的生命、减少更多的损失呢?

在创作领域,AI生成的作品引发了版权争议。平台通常禁止AI生成的内容获利,这源于“原创性”的执念——创造力被视为人类专属特权。而在一些技术应用中,如编程和设计,AI却被视为“效率工具”。这种双重标准背后,隐含着一个矛盾:当AI的创作接近人类的创造力时,我们感到恐惧;而当它仅作为工具时,我们则拥抱它。二者的界限实则模糊,AI作曲与AI编程的本质差异,或许仅在于人类对“艺术神圣性”的想象。

此外,AI的社会互动功能也揭示了其局限性。聊天机器人仅仅回应用户的指令,无法主动发起交流,它的对话行为,全依赖于输入的指令,这是局限性;但对于信息过载的当下,我们反被其他工具先异化,这或许又是优点。而与此同时,在角色扮演中,用户对虚拟角色的依恋,实际上是将人类的情感投射到算法生成的符号上。或许,AI的这种“伪主体性”凸显了它的局限,它更像是”认知棱镜”,照出人类的孤独与欲望,而非真正的情感。但在情感淡漠的当下,有时人之间的交流还不如AI生成的看起来热切,如果AI能帮助失去亲人的人找到安稳、给予缺乏关注的人应有的温暖,那么还应该仅仅把它看作工具吗?

在当下,AGI并没有达到,AI的主体性并没被广泛认可。应对上述挑战,AI的定位更需要明确为“提效工具”而非“替代者”。例如,在医疗诊断、法律纠纷和灾难预测系统中,AI可以提高效率,但无法取代人类的决策能力。平台应强制标注AI生成的内容,以保障用户的知情权,防止人类创造力被算法稀释,至少不骗取我们的同情、减少不必要的耽溺。

那么,以后呢?

AI的智力的发展,好似一辆加速的列车,对大多数人来说,看见车头的下一刹那,已然难以望其项背。而这位智者是否真正“不入爱河”,真正地爱、恐惧与道德选择,或许从理论上根本无法回答。多年以后,或许人们依然有着能够区分的主体性,靠着AI过上了更好的生活;又或许,人和人工智能不分彼此,这之间的变化或许潜移默化,正如现在越来越多的人从事修改AI的低级错误或者搬运AI内容,又或许伴随强人工智能的实现疾风骤雨般来到。

那么,我们应该做什么呢?或许我们在能力上难以匹敌,我们至少能活得真实,至少能主动地感知这个世界,主动地表达,至少对自己的爱毫不怀疑。我们恐惧的不是机器的觉醒,而是发现“爱”“道德”等引以为傲的特质,可能被还原为算法与数据。然而,这种焦虑恰恰是人类的希望——正是对主体性的不懈追问,让我们在技术洪流中保持清醒,保留迷惘的权利。

评价并提出修改建议


智者不入爱河
http://kaelvio.com/Blog/智者不入爱河/
作者
采薇
发布于
2025年5月20日
更新于
2025年5月31日
许可协议