¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? Podemos seguir construyendo modelos de caja negra, que ni siquiera conocemos bien como funcionan y que cada vez tienen más grandes capacidades ? ¿Es correcto delegar las decisiones de qué hacen y cómo operan los nuevos productos de IA en líderes tecnológicos muy capaces pero no elegidos por la sociedad para tomar esas decisiones?