Dentro del tema de la alineación de la IA, hay un millón de decisiones de alineación más pequeñas, pero significativas. Este artículo examina la disposición de la IA a participar en mala conducta científica (p-hacking). Las IA más recientes resisten las instrucciones para hacer p-hacking, pero se pueden vulnerar las barreras.
"Los modelos que probamos se comportan como analistas competentes, aunque conservadores: convergen en especificaciones estándar de texto y, cuando se les presiona por significancia, identifican la solicitud como mala conducta y se niegan. Sin embargo, estas protecciones no son absolutas." Documento:
397