“Estos hallazgos proporcionan evidencia clara de que los datos recopilados en MTurk simplemente no pueden ser confiables.” Los investigadores han discutido durante mucho tiempo si los datos de encuestas de Amazon Mechanical Turk (MTurk) pueden ser confiables. Este artículo adopta un enfoque simple para evaluar la calidad de los datos que actualmente produce MTurk. El autor presenta a los encuestados pares de preguntas que son claramente contradictorias. Por ejemplo: "Hablo mucho" y "Rara vez hablo." O: "Me gusta el orden" y "Anhelo el caos." Si las personas están prestando atención, estar de acuerdo con una debería significar estar en desacuerdo con la otra. Como mínimo, las dos respuestas no deberían moverse juntas. La misma encuesta exacta se realiza en tres plataformas: Prolific, CloudResearch Connect y MTurk. En Prolific y Connect, las cosas se comportan normalmente: la mayoría de los ítems contradictorios están negativamente correlacionados, tal como lo predice el sentido común. Sin embargo, en MTurk, los resultados son opuestos. Más del 96% de estos pares de ítems claramente opuestos están positivamente correlacionados. En otras palabras, muchos encuestados dan respuestas similares a afirmaciones que se contradicen literalmente entre sí. Los autores luego intentan lo que la mayoría de los investigadores harían a continuación: -restringir la muestra a trabajadores de MTurk de "alta reputación" -aplicar controles de atención estándar -eliminar a los respondedores rápidos y a los que responden de manera lineal...