1. 直通心智 1.1. 如今,科学家已经可以诱发触觉、压觉、痛觉和大约250种其他感觉 1.1.1. DARPA支持的触觉技术第一次让一位受伤的人能够用假肢和手指感知到被触碰的物体 1.1.2. 可以建立人工系统,来替换和弥补受损大脑的部分区域 1.1.3. 神经科学家能够识别出大脑对各种想法的抽象概念 1.2. 我们可以不在文字层面进行交流,而是在概念和思想层面进行交流。我们的交流没有理由被限制在视觉或感知层面。我们没有理由不能在感觉或情感层面进行交流 1.2.1. 菲利普·阿尔维尔达(Philip Alvelda) 1.3. 必须穿过大量的噪声,以确保人类大脑能够在一个有很多参与者的房间里处理大量传入的信息流 1.4. 一些技术上的挑战依然存在,包括扩大数据输入和输出的芯片的带宽,但研究人员不需要通过重大的突破来完成所有这些工作 1.4.1. 当神经植入物获得更多的功能,被更广泛地使用时,会出现意想不到的困境 1.5. 要弄清楚与人类大脑进行直接连接会产生什么棘手的伦理问题,时间并不多 1.5.1. 植入芯片这种侵入性脑外科手术存在着道德和伦理问题 1.5.2. 神经植入可以为黑客开辟一条全新的途径,让他们能够使用一种更直接方式控制人类:给我想要的东西,我就让你的大脑恢复过来 1.5.3. 如果安全问题得到解决,并且恢复或增强人类感官的潜力得以实现,这是否会变成富人的专属待遇? 1.5.4. 如果有钱的父母可以在他们孩子的大脑中植入芯片,以加强他们的大脑功能,而贫穷的父母却不能,这是否会导致社会进一步两极分化? 1.6. 科幻小说中关于思想控制的描述可能成真 1.6.1. 在一场刑事审判中,一名证人被要求就被告的神经植入物接收到的信息做证 1.6.2. 一旦失去改变观点的自由,我们将不再有余地把自己的想法归为试探性、不恰当、自我审查或自我调整等类别 1.6.3. 如果上传、下载和向他人的横向传输变得可记录、可分析、可评判,那么思想本身就从大脑活动的转瞬即逝的产物变成了确切的记录 1.6.4. 一个人的内在思考可能会被他人编辑、操纵和盗用 1.7. 任何更强大的神经植入和通信的发展,都必须至少包括一种明确的法律保护思想 1.7.1. 这将是维护我们的认知和意识隐私的必要手段,它将证明并鼓励那些帮助我们保护私人内在自我的技术的发展 2. 公平和正义 2.1. 公平和正义的概念在人工智能系统的背景下很难定义,特别是当我们试图考虑对一个人的公平和对一个群体的公平时 2.1.1. 个体之间公平与公正的紧张关系,可能仍会与更广泛的社会利益发生冲突 2.1.2. 个体和群体之间的差异很重要,因为许多智能体都是根据一组相似个体被识别出的模式得出针对个体的结论的 2.1.2.1. 美国网飞公司根据一个人过去的生活模式来推荐电影,这种模式也是与这个人志同道合的观众的生活模式 2.1.3. 通常情况下,系统可以从更大的群体中得出更直接、准确的预测 2.1.3.1. 如果范围缩小,要求系统给较小的小组提供更精准的推荐,就会增加它出错的可能性 2.2. ‘公平’这个概念的含义有很多细微的差别 2.2.1. 在某些情况下,我们可能对公平有着不同的合理理解,但把它们放在一起就会产生冲突 2.2.2. 对一群人来说是公平的东西,对某个人来说可能是不公平的 2.2.3. 招聘经理可以故意选择不合格的女性候选人进行面试,仅仅是为了满足统计上的平等 2.2.3.1. 只要保证相同比例的男女申请者参加面试,就可以说女性作为一个整体被公平对待了 2.2.3.2. 经理可以故意选择面试那些不合格的女性申请者,而不给那些条件合格的女性申请者面试机会,从而实现区别对待 2.3. 从理论上讲,算法最终可以帮助法官抵消偏见,或许还可以在量刑时消除种族差异,但“例外”将一直存在 2.4. 再加上美国判例法的不断演变,就连一直十分严苛的法律正义概念也在受到主观观念的影响 2.5. 算法问责的工作应该从开发和部署算法的公司开始 2.6. 在面向消费者的人工智能应用程序中,还不存在一致且准确地识别这些最不可能发生的情况所需的背景 2.7. 把这些概念运用到计算机代码中要困难得多 2.8. 每一种政策都在个人层面制造了棘手的情况,特别是对那些不直接从类似项目中受益的群体来说 2.8.1. 德国在政治和商业上对女性实行的配额政策,美国针对少数民族的平权政策,以及印度招募低种姓人至政府机构的行为,都试图以不公平地对待某个群体的方式来做正确的事 2.8.2. 试图平衡群体和个体公平的行为往往会引发人们对于不公正的反对呼声 2.9. 将个人的公平感与正义混为一谈 2.9.1. 真正的正义应该产生于公平和个人利益的平衡 2.10. 当他们为整个社会设计正义规则时,他们不会暗中布局,使规则对自己有利 2.10.1. 因为没有人知道,资源和能力的分配会将他们置于社会经济阶梯的什么位置,所以所有人都倾向于设计一个公平对待每一个人的系统 2.11. 我们编译的几乎每一组数据都潜藏着无意的偏见 2.11.1. 即使是一个不完美的模拟,也可能有助于指导执法部门、受害者权利组织、美国公民自由联盟等监管机构和社区活动人士之间的合作 2.12. 无论如何,随着人工智能分析出不同群体和个体之间更复杂的差异,正义和公平的问题只会变得更加复杂 3. 英特尔旗下的Safron 3.1. 在制造过程中,大多数故障检测都能识别出常见或可能的缺陷和故障原因 3.2. Safron的基于记忆的学习和推理解决方案是对机器学习或深度学习的补充 3.3. 它不仅能识别那些可能发生的事件,还可以深入挖掘,找出可能导致某个部件损坏或系统故障的一次性弱点,并解释这样的异常情况 3.4. 如果成功的话,英特尔的一次性人工智能学习能力可能对高质量制造产生巨大影响,并可能最终改善人工智能平台,为人们的日常生活提供帮助 4. 科技性失业 4.1. 人工智能系统的发展将以前所未有的速度改变工作任务、取代工作岗位 4.1.1. 它还将刺激对我们尚未接触到的新技能的需求 4.1.2. 跨学科合作主要从任务的视角看待人工智能对工作带来的技术性改变 4.1.3. 更为合理的选择是,安排并培训员工在人工智能的帮助下完成工作,从而提高工作效率,获得更大的激励,达成更高的目标 4.1.4. 全球约有一半的工作已经可以利用现有技术实现“技术上的自动化”了 4.2. 我们能否跟上它们的步伐(特别是在教育和劳动力培训方面),以及我们能否发挥想象力,看到这些变化将带来什么样的新机遇 4.2.1. 适应新的工作性质需要发挥想象力并做好准备。 4.2.2. 没有足够的想象力去看到最初的破坏之外的东西 4.3. 大多数公司只看到他们眼前的,以及智能机器能做得更好、更节省成本的工作,但他们不会看到未来工作需要的技能 4.3.1. 人机合作经理、数据侦探、首席信用官,或Cognizant咨询公司在2018年的报告中提出的其他18个“未来工作” 4.4. 全民基本收入(UBI) 4.4.1. 即为每位公民提供一份最低收入,以此来帮助那些因人工智能和其他自动化技术迅速发展而失业的人 4.5. 工人们可以利用部分收入,把这些抢他们饭碗的机器买下来 4.5.1. 卡车司机可以拥有代替他们的自动驾驶卡车,并从它身上获利 4.6. 认知机器正在承担许多枯燥乏味的工作 4.7. 从历史上看,企业从本质上就有动机使用机器,并由更少的高技能工人来操作机器 4.8. 从企业的角度来看,人工智能通过提高工人生产率,增加了企业减少人力支出的动机 4.9. 几乎所有规模可观的公司都在考虑如何将人工智能整合到自己的业务中 4.10. 在所有的文化和社会中,人们都喜欢创新、实现自我价值 4.10.1. 挖掘这种潜在的能量可以掀起一股新的生产力发展浪潮,在全球范围内提升生活水平和创新水平 4.10.2. Adobe的进步让人们可以把更多的时间花在创意部分 4.11. 凡事都有阴暗面 4.11.1. 恶意使用的威胁丝毫不会减缓各种人工智能工具的普及 4.12. 一些技术是用来打假的 4.12.1. 随着数字水印技术的发展,伪造将变得更加困难,因为这种技术可以跟踪更改痕迹 4.12.2. 使用这种验证和分类账技术,可以将确认信息和记录分发给广泛的用户群体,从而减少操纵和欺诈的机会 4.13. 企业有充足的战略依据来维持如此巨大的流动性,这使它们能够对市场动荡做出快速反应,并为新产品和服务的研发提供动力 4.13.1. 要对未来工作、收入和学习这些新概念进行投资,需要它们长期关注全球和本国经济的需求 4.13.2. 在短期股东利益的驱使下,很少有公司有足够的动力去想象一个尚未被定义的未来 4.14. 政策制定者可以选择一条更明智的道路,旨在提高企业的生产率和竞争力,同时让劳动力为第四次工业革命做好准备 4.14.1. 在清洁能源、技术设计和3D制造等领域建立激励机制,鼓励公私合作,促进企业对未来防御性工作的研发和培训进行投资 4.14.2. 我们需要培训工人来从事这些工作,其中许多工作所需要的技能或技能组合在当今职场中是闻所未闻的 4.15. 认知科技也可能帮助企业提高生产率,并通过对我们动机和意图的深刻了解,为员工带来更大的回报 4.15.1. 可能让我们的潜意识为我们工作 4.16. 个人、社会和整个地球需要我们从内而外去思考什么是正确的,而不仅仅是看表面的对错 4.17. 负责任的组织会希望跟踪绩效并识别有可能发生滥用情况的领域 4.17.1. 进步的企业会让它尽可能透明 4.17.2. 可以从劳工和雇主之间的非正式合作开始,双方可以共同为影响员工行为的制度制定规则