Nigel:一个帮助用户做出政治决策的人工智能项目
人们越来越依赖互联网及其设备来收集有关世界的信息并做出决策。通常,这些决策涉及今晚去哪里吃饭、某种啤酒是否好喝,或者某种加密货币的表现如何。但如果某个设备或软件能够帮助人们选择如何投票呢?一个名为Nigel的俄勒冈州项目正是致力于实现这一目标。
Nigel的雄心壮志
Nigel背后的团队希望在其用户生活的几乎每个方面提供帮助,包括提供政治建议。虽然其他个人助手对发表任何政治言论都避之不及,但Nigel却乐于提供建议。这是一个雄心勃勃的目标,因为Nigel的目标是了解用户的目标并发现他们的现实。为此,Nigel将完全控制用户的设备。在未经检查且未受监管的情况下,Nigel将自行编程以适应用户的现实。一旦做到这一点,它将尽其所能推动用户实现目标。
Nigel已经能够在进入电影院时自动关闭声音,团队希望明年Nigel能够达到小学水平的读写能力。下一步是根据收集的信息让Nigel为用户做出政治决策。团队认为,人们会学会信任Nigel做出这些决定,因为Nigel将比任何政治家都更加了解用户的情绪和现实。
潜在的问题与挑战
尽管这个概念非常有趣,但它可能面临许多问题。显而易见的是,任何软件都容易受到黑客攻击或其他漏洞利用的影响。如果用户数据存储在中心化位置,那么这些数据可能会变得脆弱。如今,已经有足够多的用户数据被盗。如果Nigel要了解用户的一切,或者足够代表用户做出重大决策,那么存储的数据对恶意行为者来说将极具吸引力。另一方面,如果恶意行为者不窃取数据,他们可能会操纵软件,建议投票给某个特定的人。该软件必须非常安全,以确保用户既不会受到侵犯,也不会受到外部行为者的不必要影响。
另一个潜在问题可能与Nigel作为通用人工智能有关。一些科技巨头已经对未经检查的人工智能发表了悲观的看法。如果Nigel具有真正的通用智能,那么它有可能以某种方式影响其用户,从而使其自身优于人类。即使它只是优先考虑自己而非用户,这也将是一个足够大的冲突。
结论
我完全支持选民在民主进程中更加知情和参与。我相信我们可以在没有软件告诉我们如何投票的情况下做到这一点。Nigel在收集信息方面可能会有所帮助,但建议投票方向可能会跨越一些伦理和潜在危险的界限。