El sesgo contra la máquina: el síndrome NIH y el rechazo al contenido generado por IA
![]() |
| Tradition Meets AI. AI art |
¿Deberíamos descartar un argumento simplemente porque fue escrito por una inteligencia artificial? Esta pregunta se sitúa en la intersección entre la tecnología, la psicología y la epistemología. La creciente presencia de textos, imágenes y soluciones producidas por máquinas ha encendido un debate sobre su legitimidad. Mientras algunos evalúan estos productos de forma pragmática, otros los rechazan de plano, insistiendo en que solo el pensamiento humano puede ofrecer conocimiento confiable. Esta resistencia puede comprenderse a la luz de un fenómeno bien documentado: el síndrome Not Invented Here (NIH). Estudiado originalmente en contextos organizacionales, el NIH describe la tendencia a rechazar ideas por el mero hecho de provenir de una fuente externa o desconocida. Aplicado a la inteligencia artificial, pone de relieve un prejuicio sutil pero poderoso: la negativa a reconocer el conocimiento generado por máquinas como algo creíble. Este artículo explora la naturaleza del NIH, sus implicaciones epistemológicas y su relevancia en el rechazo contemporáneo de los productos de la IA.
Definiendo el síndrome Not Invented Here
El término Not Invented Here se refiere a un sesgo cognitivo y organizacional contra la adopción de conocimiento externo. En su trabajo seminal, Katz y Allen (1982) estudiaron grupos de investigación y desarrollo, mostrando que mientras más tiempo trabajaban los equipos en aislamiento, más reacios se volvían a incorporar ideas externas, lo cual derivaba en un descenso de su rendimiento. Estudios posteriores confirmaron que el NIH puede obstaculizar de manera significativa la innovación. Antons, Declerck y Piller (2017) describen el NIH como “una actitud negativa hacia el conocimiento que debe cruzar una frontera disciplinaria, espacial u organizacional” (p. 2).
El síndrome se manifiesta de distintas formas: rechazo de propuestas externas, duplicación de esfuerzos y preferencia por desarrollar internamente aun cuando las soluciones sean inferiores. Hannen et al. (2019) cuantificaron este efecto, demostrando que cada incremento en NIH se correlaciona con una disminución medible en la absorción de conocimiento. Las consecuencias prácticas son costosas: oportunidades perdidas, menor eficiencia y competitividad debilitada. Las organizaciones afectadas por NIH suelen descubrir que el orgullo, la sensación de propiedad y el ensimismamiento pesan más que la evaluación racional.
Aunque gran parte de la investigación se ha enfocado en empresas y grupos profesionales, el fenómeno trasciende a las instituciones. Refleja un impulso humano más profundo: privilegiar el conocimiento familiar o generado internamente por encima de aquel que proviene de una fuente externa o desconocida.
Dimensiones epistemológicas del NIH
La epistemología ofrece un lente más amplio para comprender el NIH. En el fondo, el NIH no es solo una ineficiencia organizacional, sino un sesgo basado en la fuente. En lugar de evaluar si una afirmación es justificada, verdadera o válida, con frecuencia los individuos la juzgan en función de su procedencia. Esto contradice el principio según el cual el contenido del conocimiento debería importar más que su origen.
Tres conceptos epistemológicos clave afinan este análisis:
- Autoridad epistémica: quién tiene derecho a ser escuchado como conocedor.
- Confianza epistémica: cuánta credibilidad se otorga a un emisor o fuente.
- Validez epistémica: si una afirmación resiste el escrutinio lógico o empírico.
El NIH distorsiona esta tríada al otorgar autoridad a fuentes internas o familiares, al tiempo que retira la confianza de fuentes externas, incluso cuando sus aportes son válidos. En su trabajo sobre la injusticia epistémica, Fricker (2007) sostiene que el prejuicio socava con frecuencia la credibilidad de ciertos investigadores. Aplicado a la inteligencia artificial, emerge el mismo patrón: se descartan los productos de la máquina no por su calidad, sino porque su fuente carece de autoridad reconocida. El resultado es una forma contemporánea de injusticia epistémica dirigida a agentes no humanos.
El NIH en la era de la inteligencia artificial
La llegada de imágenes, voces y textos generados por IA ha dotado al NIH de una nueva relevancia. Así como en el pasado las empresas se resistieron a adoptar tecnologías externas, hoy muchas se muestran renuentes a reconocer las contribuciones de la IA. Esta resistencia se enraíza en el orgullo humano, la sospecha y la convicción de que el conocimiento genuino debe ser producido por humanos, las personas experimentan incomodidad cuando una máquina resuelve cuestiones que han desafiado a la humanidad durante siglos.
La investigación ha comenzado a explorar esta dinámica. Arias-Pérez, Vélez-Ocampo y Cepeda-Delgado (2017) encontraron que el NIH afecta de manera negativa el desempeño innovador en empresas de servicios, aunque unas sólidas capacidades de innovación pueden compensar este efecto. Más recientemente, un estudio colombiano (2022) analizó el NIH en el contexto de la inteligencia artificial y la robótica, vinculando este sesgo con el sabotaje del conocimiento y la disminución del rendimiento. Los empleados escépticos frente a la automatización tienden a obstaculizar los flujos de conocimiento externo, aunque se ha demostrado que las campañas de concienciación y las estrategias de adopción de perspectivas contribuyen a mitigar este efecto.
No obstante, la mayor parte de la literatura aún aborda el NIH en términos de transferencia de conocimiento interorganizacional o automatización laboral, prestando escasa atención al rechazo de los contenidos generados por IA—ya sean textos, obras de arte o argumentos. La evidencia anecdótica resulta ilustrativa: artículos escritos por IA descartados en medios periodísticos, obras de arte generadas por IA rechazadas en concursos, ensayos redactados por máquinas cuestionados en el ámbito académico. Estos casos muestran el NIH en acción, donde la negativa no se basa en la calidad del contenido, sino en su origen. Si en el pasado este sesgo se aplicaba a ideas procedentes de empresas externas o grupos de investigación, hoy se extiende también a las producciones de las máquinas.
Las implicaciones epistemológicas son profundas. Al privilegiar el origen humano como criterio de autoridad, la sociedad corre el riesgo de pasar por alto ideas válidas y aportes creativos. La confianza se retira no porque los argumentos sean deficientes, sino porque su productor carece de intencionalidad humana. Esto genera una paradoja: las máquinas pueden producir conocimiento que supera pruebas lógicas y empíricas, pero el prejuicio impide su aceptación.
Conclusión
Rechazar argumentos o creaciones artísticas generadas por IA únicamente porque provienen de una máquina constituye una manifestación contemporánea del síndrome Not Invented Here. Reconocido desde hace tiempo como un sesgo organizacional, el NIH también opera como un prejuicio epistemológico: vincula la autoridad y la confianza al origen en lugar de a la validez. Como muestran los estudios de Katz y Allen (1982), Antons et al. (2017) y otros, el NIH reduce la innovación y la eficiencia al desalentar la adopción de aportes externos. Aplicado a la inteligencia artificial, este sesgo refleja la renuencia humana a compartir autoridad epistémica con agentes no humanos.
El camino a seguir requiere un cambio de enfoque. En lugar de preguntar quién o qué produjo el contenido, la cuestión más relevante es si el mismo resiste el escrutinio. Al confrontar el NIH en su nueva forma digital, la sociedad puede garantizar que aportes valiosos, humanos o generados por máquinas, no se pierdan por prejuicio. Los estudios futuros deberían investigar de manera explícita cómo el NIH moldea las respuestas frente a textos e imágenes producidos por IA, integrando psicología, epistemología y estudios de medios. Solo así podremos abordar el desafío más profundo: aprender a confiar en el conocimiento, venga de donde venga.
Referencias
Antons, D., Declerck, M. B., & Piller, F. T. (2017). Opening the black box of “Not Invented Here”: Attitudes, decision biases, and behavioral consequences. Journal of Organizational Behavior, 38(1), 193–213. DOI: 10.1002/job.2199
Arias-Pérez, J. E., Vélez-Ocampo, J. F., & Cepeda-Delgado, J. (2017). Open innovation in services: Knowledge sources, NIH syndrome and performance. International Journal of Innovation Management, 21(1), 1750036. DOI: 10.1142/S1363919617500360
Fricker, M. (2007). Epistemic injustice: Power and the ethics of knowing. Oxford University Press.
Hannen, J., Heinrichs, H., & Kliewer, N. (2019). The impact of Not Invented Here on knowledge absorption and innovation. Research Policy, 48(9), 103822. DOI: 10.1016/j.respol.2019.103822
Katz, R., & Allen, T. J. (1982). Investigating the Not Invented Here (NIH) syndrome: A look at the performance, tenure, and communication patterns of 50 R&D project groups. R&D Management, 12(1), 7–20. DOI: 10.1111/j.1467-9310.1982.tb00478.x

Comentarios
Publicar un comentario