机器人三大法则,也被称为机器人三定律,最早由科幻作家阿西莫夫在他的机器人相关作品中提出。这些原则是一种保护性设计和内置的道德原则,旨在确保机器人对人类有益而非有害。具体来说,机器人三大法则包括:
第一法则:机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害。
第二法则:除非违背第一法则,机器人必须服从人类的命令。
第三法则:在不违背第一及第二法则下,机器人必须保护自己。
后来又补充了第0法则,凌驾于三大法则之上:
第零定律:机器人必须保护人类的整体利益不受伤害。
这些原则在科幻小说中为机器人设定了行为准则,但存在逻辑缺陷和实践困难,例如如何定义“伤害”、“命令”和“保护”,以及如何处理多个原则之间的冲突。因此,随着人工智能技术的发展,有必要对这些原则进行修订和完善。