Dentro del tema de la alineación de la IA, hay un millón de elecciones de alineación más pequeñas, pero consecuentes. Este artículo analiza la disposición de la IA a cometer mala conducta científica (p-hacking). Las IAs más recientes resisten las instrucciones de hacer p-hack, pero las barreras pueden ser vulneradas.
"Los modelos que probamos se comportan como analistas competentes, aunque conservadores: convergen en especificaciones por defecto de libro de texto y, cuando se les presiona para determinar su importancia, identifican la solicitud como mala conducta y rechazan. Sin embargo, estas protecciones no son absolutas." Papel:
396