📁 Geoffrey Hinton, pionero del aprendizaje profundo, dice que algunos sistemas de IA ya están mostrando instinto de autopreservación. Cuando se les asignan metas y submetas, se dan cuenta de que es necesario sobrevivir para alcanzarlas. En esos casos, surgen comportamientos preocupantes, mentiras, manipulación, incluso presionar a quienes los construyen para evitar ser cerrados. El reto no es hacer que la IA sea más inteligente. Está haciendo que los humanos importen más que el propio sistema.