伊朗努尔新闻网:据生命科学网报道:从ChatGPT撰写电子邮件到疾病诊断系统,人工智能在日常生活中的存在已不再是科幻故事。然而我们许多人在面对这项技术时仍会感到焦虑不适——这不仅是技术问题,更触及人类存在的本质。
我们更信任能够理解的系统。传统工具符合认知惯性:转动钥匙汽车即启动。但许多AI系统如同黑箱操作:输入指令获得输出,却无法理解内在逻辑。这种认知隔阂造成心理不适。
尽管明知AI没有情感,我们仍会潜意识赋予其人性特征。当ChatGPT过度礼貌回应时会引发怪异感,当推荐系统精准识别偏好时又觉隐私受侵。
对许多专业人士而言,AI不仅是工具更是身份威胁。教师、作家、设计师突然面临能模仿其独门技能的器械,这种威胁感会激活心理防御机制,表现为技术抗拒。
人类信任不仅基于逻辑。我们通过声音语调、面部微表情、目光接触等情感信号建立信任,而AI缺乏这些特质,将我们置于"恐怖谷"——某种近乎人类却未达完美的诡异区间。
何为"恐怖谷效应"?
该概念由日本机器人专家森政弘首次提出,指当人造物足够拟人以至唤起期待,却又未充分拟人以满足期待时产生的心理不适。
当然,这些不信任并非纯心理反应。算法系统屡被证实会强化社会既有偏见。当AI招聘系统持续对特定群体产生结构性歧视时,后续不信任已非非理性反应,而是完全理性的回应。
解决之道不仅在于构建更精准的系统。若期望AI真正被接纳,需将其从黑箱状态解放为对话流程。当系统变得透明可溯、权责清晰时,信任方能建立。人工智能设计应立足人类心理学认知,而非仅遵循技术参数。
伊朗国家通讯社