前瞻钱瞻:这期我们要前瞻的的是Yuval Noah Harari 尤瓦尔·诺瓦·赫拉利的最新力作——《Nexus: A Brief History of Information Networks from the Stone Age to AI》《智者之上: 从石器时代到人工智能的信息网络简史》。

尤瓦尔·诺亚·赫拉利教授(Yuval Noah Harari)1976年生于以色列,2002年获得牛津大学博士学位,现为耶路撒冷希伯来大学的历史系教授,并担任剑桥大学存在风险研究中心的杰出研究员,当年的青年怪才,全球瞩目的新锐历史学家。
他以深入浅出的风格探索人类历史、未来科技及全球重大议题而闻名。他的代表作品包括畅销书《人类简史》《未来简史》《今日简史》《人类简史:图像小说版》以及《不可阻挡的我们》。这些书籍已被翻译成65种语言,总销量超过4500万册,奠定了他作为全球最具影响力的公共知识分子之一的地位。
2019年,在他书籍获得国际成功后,与丈夫兼最初的代理人伊茨克·亚哈夫(Itzik Yahav)共同创立了Sapienship,这是一个专注于教育和叙事领域的社会影响公司,旨在推动关于全球重大挑战的公众对话。
他的新书《Nexus: 从石器时代到人工智能的信息网络简史》于2024年9月出版,深入探讨了人类进入信息时代的历程以及人工智能带来的机遇和挑战。探讨了从石器时代到人工智能革命的漫长信息网络历史。Harari在书中解析了信息与真理、官僚主义与神话、智慧与权力之间复杂的关系,展示了信息网络如何从一开始便影响人类社会的组织、结构和权力分布。通过追溯从《圣经》编纂、中世纪女巫猎杀、纳粹宣传到现代民粹主义等历史事件,《Nexus》为理解当下人工智能革命的威胁和机遇提供了重要背景。

信息并不等同于真理:信息的主要作用在于连接人,而非呈现客观事实。
故事和叙事的力量:虚构的叙事在集体认同和社会稳定中具有重要作用,即使它并不真实。
信息的双刃剑:信息既能建立联系,也能通过误导和操控破坏社会稳定。
AI驱动的非有机网络:AI不只是工具,它在信息网络中充当了独立代理,具备自我演进的能力。
监控的道德和心理影响:AI驱动的网络在无休止的监控下,侵蚀了个体隐私和自由。
AI的潜在偏见和误判风险:AI在决策过程中易受训练数据影响,可能强化既有偏见并放大错误。
民主对话的削弱:算法驱动的“回音室”现象加剧了社会极化,阻碍民主对话。
极权主义强化:在极权体制中,AI的监控和数据分析功能可能导致权力的极端集中。
全球性的“硅幕”:未来可能因AI控制的不同应用形成技术“铁幕”,导致社会分裂。
伦理和问责的必要性:建立AI发展的全球伦理框架至关重要,以避免其成为压制工具。
AI在公共话语中的影响:AI不仅塑造信息传播,还操控舆论,影响公共决策。
数据隐私的侵蚀:AI在多领域的数据使用带来了隐私问题,使个体信息暴露风险上升。
AI的独立行为能力:AI的决策能力改变了社会对工具的传统定义,提升了机器自主性。
信息集权化的风险:AI可能使信息和权力高度集中,形成对少数人的依赖。
算法的不可见影响:算法常常以隐形方式影响公众的日常生活和决策,使影响不易察觉。
内容生成的原创性问题:AI生成的内容模糊了创意的边界,带来了原创性和版权问题。
AI驱动的个性化:AI在广告、教育和医疗等领域的应用,促进了个性化体验,但隐私问题严重。
技术失控的潜在威胁:如果缺乏有效监管,AI可能带来难以逆转的社会和经济影响。
AI在工作中的替代性:AI的自动化影响了劳动市场,增加了失业风险,改变了就业结构。
持续学习与重新培训的必要性:在AI时代,品牌和个人都需要不断更新知识和技能,以适应变化。


Yuval Noah Harari在《Nexus》中揭示了信息网络对人类的深远影响,特别是在AI和数据高度集中的今天。Harari呼吁全球社会应在快速发展的技术浪潮中保持伦理责任和人性关怀。无论是品牌还是个人,都需要在“硅幕”时代保持警觉,以理性和负责任的态度应对信息时代的挑战。