摘要: 对人工智能干扰2024年选举的担忧是有充分基础的,但在最近的历史中并非前所未有。
AI对2024选举的影响和伦理挑战
近期对AI干扰2024选举的担忧是有根据的,但在近期历史中并非首次出现。1975年,Asilomar重组DNA会议就预示了今天的AI担忧。
Asilomar会议为如何应对科学知识的变化树立了先例。根据会议组织者、生物化学家保罗·伯格和分子生物学家马克辛·辛格的说法,对于新的科学知识,正确的回应不是通过监管来实现,而是通过制定指导方针来规范它。
然而,他们和那些要求对AI进行监管的人一样都是错误的。解决方案不在于监管,而在于揭穿以可持续性为代价处理海量数据的前提。将强大的计算能力包装成智能是一种欺诈行为!
AI和2024选举的挑战是伦理问题,而非监管问题。我们已经为AI做出了一种可怕的交易,如果不质疑其背后的科学基础,其影响将对人类的未来产生不可逆转的影响。
AI并不关心谁赢得总统选举。它只是解决一个数学问题。不久前,肯尼斯·阿罗因为展示了选举如何被操纵而获得了诺贝尔奖。
在某些基于学习的AI处理中,使用了大量数字的目的是操纵以前从未出现在选举雷达上的10-12%的选民行为。这是一个等待被开发的政治矿藏。
设计行为工程伦理吗?不管这是否合法,我们的政治体系已经受到取代人类判断的机器推断的破坏。我们需要明白机械技术没有预见性。使用锤子没有伦理问题,它不能区分钉子和人的头。
自动化的锤子实际上是一把枪。它被自动化排除了人的判断。自动化的算盘——也就是计算机——在处理数据方面非常出色,但在伦理能力方面却是零。它没有对对错的概念,也没有良心。
图灵机,也就是一切计算的基础,只知道物理的限制——表现为数据量、处理速度和成本(能源消耗)。人类的意义,也就是数据的含义,在其中完全不存在。
我们需要一个不将行为简化为物质的物理和化学基础的科学基础。到目前为止,我们未能做到这一点。这在21世纪人类生活的病理、妄想性质的增加中得到了体现。
我希望我们能够清醒过来,选择正确的道路。打破科学的呼声不是可选的,而是一种存在的必要。