人工智能的伦理问题

作者:彼得·辛格 刊名:中国新闻周刊 上传者:宾江

【摘要】上个月,一款专门被设计用于下围棋的电脑程序“阿尔法狗”(AlphaGo)以4:1击败世界顶尖职业闱棋选手李世石,在闱棋爱好者群体中引发轰动。

全文阅读

人工智能的伦理问题 文/得.辛格林斯顿大学生物伦理学教授,墨尔大 ,学荣教授。貝著作包括《动物解放以现伦理》《可以拯救的生命》等 上个月,一款专门被设计用于下围棋的电脑程序“阿尔法狗" (Alpha巛))以4刂击败世界顶尖职业围棋选手李世石,在围棋爱好者群体中引发轰动。 你可能会问,这算是新闻吗?早在二十年前,IBM的电脑“深蓝"(Deep Blue)就曾打败过国际象棋世界冠军加里.卡斯帕罗夫;且众所周知,自那以后技术一直在进步。但是,“深蓝"获胜纯因计算能力,它能比世界冠军计算出更多步棋。相比8 × 8格的国际象棋,围棋的棋盘史复杂,为19 × 19格,围棋可能的走法要超过宇宙中的原子数,因此,单凭强大的计算能力不太可能打败对最佳走法有着强烈直觉的人类。 “阿尔法狗"的胜利之道,在于同其他程序进行海量对弈,并采纳被证明成功的战略。因而可以说,“阿尔法狗"进化为全世界最优秀的围棋选手只用了两年,而人类的大脑在自然过程中完成这样的进化,可能需要数百万年的时间。 “阿尔法狗"的主人、谷歌公司执行董事长埃里克.施密特(Eric&hmidt)热衷于人工智能((l),他在人机人战之前表示,无论结果如何,人类必将是赢家,因为人工智能的进步会令每个人史聪明、能力史强,“只会让人类史美好,'。 果真如此吗?就在“阿尔法狗"凯旋的同时,微软的“聊天机器人"泰勒(1邳or)却尝到了苦头。这款自称“'可'的机器人的用途是与18、24岁的年轻人互动。'吓,可以从接收到的信息中学习,并逐步提高对话能力。不幸的是,上线不到一天,就有人“教导" ' 有关种族主义和性别歧视的观点。当她开始赞扬希特勒时,微软不得不将其关闭,并 掉了其大部分攻击性的言论。 我不知道那些将y教成种族主义者 48 China Newsweek 的人自己是否是种族主义者,抑或他亻「识是认为玩坏微软的新产品是饶有趣味的事。但不管怎样,“阿尔法狗''的胜利与'、:的失败同样令人类警醒。在有着特定规则和明确目标的游戏中释放人工智能的潜能是一回事,而把人工智能投入真实世界则是另一回事一.一两者截然不同,环境的不可预知性可能暴露软件漏洞,引发灾难性后果。 牛津大学人类未来研究所所长尼克.波斯特洛姆(丶om)在具著作《超级智能》(Suvrr intelligence)中指出,关闭一个智能机器并不总是像关闭Tay那样轻而易举。他将“超级智能"定义为“几乎在任何领域都超越人类最聪明大脑的智能,包括科学创造力、整体智慧和社交能力"。这样的系统也 许能挫败我们关闭它的企图。 有人质疑超级智能会不会实现。对此,波斯特洛姆和文森特、穆勒(Vincent Müller)一起咨陶了人工智能专家,问机器智力何时能有%的可能达到人类水平,以及何时有%的几率达到人类水半。估计的中位数显示,到%的可能性在2 5、20年达成,%的可能性在2()75年达成。大部分专家都预计,达到人类智能后不到年,人 无人驾驶车业已驶上加利福尼亚的公路,砚在言及如何让机器的行为符合伦理为时 已不算太早。超级智能或许 离我们太遥远,但是,我们可以开始考虑如何让人工智能符合人类、乃至所有有感情的生物的利益了。 工智能就会发展到超级智能水平。我们不应对这些估计太较真,因为专家总体的回复率只有引%,而且这一领域的研究者亻门往往想通过拔高人工智能的潜力来提高自己所在领域的重要性。 超级智能或许离我们太遥远,尤其是在我亻门还面临更紧迫的问题时更是如此。但是,我们可以开始考虑如何让人工智能符合人 类、乃至所有有感情的生物的利益。 无人驾驶车业已驶上加利福尼亚的公路,现在言及

参考文献

引证文献

问答

我要提问