Incorrecto. El problema central no es el control. Se trata de si el universo permite tecnologías poderosas y difíciles de defender. Ninguna cantidad de trabajo en la alineación de sistemas afectará eso. La seguridad de la IA requiere alinear el mundo en general, no solo los sistemas. La seguridad *no* es una propiedad del sistema. Este punto es obvio, pero parece ser resistido por muchos. He comenzado a preguntarme si la razón es que las empresas *quieren* que la seguridad de la IA sea principalmente un problema sobre sus sistemas. Pero simplemente no lo es.
Stephen McAleer
Stephen McAleer5 sept, 10:35
La supervisión escalable es prácticamente el último gran problema de investigación que queda. Una vez que obtengas una función de recompensa irrompible para cualquier cosa, entonces podrás aplicar el aprendizaje por refuerzo en todo.
49,14K