Logros invisibles: el papel del algoritmo en ciencia y humanidades

Laboratorio y escritorio. AI art
Introducción

En la última década, el uso de algoritmos inteligentes ha dejado de ser un recurso marginal para convertirse en un protagonista en la investigación científica. Físicos, químicos, médicos y economistas han incorporado sistemas de aprendizaje automático a sus prácticas, logrando descubrimientos que habrían parecido imposibles hace apenas una generación. En este terreno, el entusiasmo es compartido: la inteligencia artificial es vista como un colaborador legítimo, una especie de asistente incansable que multiplica la capacidad de observación y análisis de los investigadores.

Pero este relato de éxito tiene un reverso incómodo. Mientras en los laboratorios se aplauden los avances alcanzados con ayuda de los algoritmos, en el ámbito de la escritura y las humanidades se observa una resistencia marcada, teñida de recelo. Aquí, el uso de la misma herramienta despierta sospechas de falsedad, falta de autenticidad o incluso decadencia cultural. ¿Por qué celebramos al científico que se apoya en la máquina, mientras denigramos al escritor que hace lo mismo?

Los héroes algorítmicos de la ciencia

Los ejemplos de victorias científicas impulsadas por inteligencia artificial abundan. En 2020, el sistema AlphaFold, desarrollado por DeepMind, logró predecir con una precisión sin precedentes la estructura tridimensional de proteínas, un problema que había desafiado a los biólogos durante medio siglo. La comunidad científica celebró el logro como un hito equiparable a descifrar el genoma humano.

En el terreno económico, los algoritmos de aprendizaje profundo han revolucionado la predicción de mercados. Firmas de inversión de alto nivel integran modelos que detectan patrones invisibles para el ojo humano, generando ganancias considerables. Nadie tacha a estos corredores de bolsa de “falsos” o “inauténticos”; al contrario, se los admira como visionarios que supieron anticipar el futuro de su industria.

La medicina no se queda atrás. Herramientas de diagnóstico basadas en redes neuronales identifican tumores en imágenes médicas con igual o mayor precisión que radiólogos expertos. En estos casos, el algoritmo no es percibido como un fraude, sino como un aliado que salva vidas y alivia la carga de los profesionales.

Lo fascinante de estos casos no es solo la eficacia técnica, sino la narrativa que se construye en torno a ellos: el investigador que utiliza algoritmos es presentado como un pionero, alguien capaz de extender el alcance de lo humano gracias a la mediación de la máquina.

El giro inesperado: del laboratorio a la página

Y sin embargo, cuando pasamos del laboratorio al escritorio, la historia se invierte. La misma herramienta, alabada en biología y finanzas, se convierte en objeto de sospecha si aparece en la escritura. El tono público cambia: lo que en un científico es celebrado como innovación, en un autor es denunciado como trampa.

Un escritor en la plataforma Medium lo expresó con crudeza:

“Los textos escritos con AI suenan … como latas de cerveza vacías, desprovistos de esas huellas humanas que permiten que las palabras cobren vida. Y eso es terrible, porque la escritura con IA es peor que una mala escritura. Un escritor malo es, al menos, innegablemente humano.”

El testimonio encarna el malestar generalizado: un texto asistido por algoritmos es percibido como vacío, carente de espíritu. El argumento no se centra en la calidad del resultado, sino en su supuesta ausencia de humanidad. Se presupone que la literatura, el ensayo o incluso un simple artículo de opinión requieren un aura que ninguna máquina podría replicar.

La paradoja de la autenticidad

Aquí se revela la paradoja. Cuando se trata de predecir la estructura de proteínas, el criterio es puramente instrumental: lo que importa es la exactitud, no quién realizó el cálculo. Nadie objeta que el mérito recaiga en el equipo que supo aprovechar la herramienta. Pero en las humanidades, el criterio se desplaza hacia lo espiritual: la máquina no puede tener “alma”, y por tanto, su uso contamina la producción.

El sesgo resulta evidente: valoramos la herramienta según el campo de aplicación. Si contribuye a curar enfermedades, aplaudimos su utilidad. Si corrige un ensayo sobre las rosas, la descalificamos como artificio hueco. El prejuicio se asienta en una jerarquía implícita que otorga a la ciencia el privilegio de la eficacia y condena a las humanidades a una especie de autenticidad romántica.

Un doble estándar cultural

La raíz de este doble estándar podría rastrearse en nuestra concepción cultural del conocimiento. La ciencia se mide por resultados verificables; la escritura, en cambio, se entiende como expresión singular de una subjetividad. Bajo esta lógica, cualquier mediación que altere la “voz” del autor parece sospechosa. Pero la frontera no es tan clara como se cree.

Si aceptamos que el científico no pierde su condición humana al trabajar con algoritmos, ¿por qué deberíamos pensar que el escritor deja de ser escritor al utilizarlos? El sesgo parece provenir menos de la naturaleza de la herramienta que de la forma en que categorizamos las disciplinas: para la ciencia, eficacia; para las letras, espíritu.

Conclusión

Celebramos al físico que resuelve problemas inabordables con ayuda de un algoritmo, pero condenamos al ensayista que pule sus frases con la misma tecnología. La contradicción revela más sobre nuestras expectativas culturales que sobre las capacidades de la inteligencia artificial. Nos aferramos a la idea de que las humanidades deben preservarse como reducto de autenticidad, aunque esto implique sostener un doble estándar difícil de justificar.

Tal vez, en lugar de denunciar el uso de algoritmos en la escritura como una traición al espíritu humano, deberíamos reconocer que toda producción cultural es ya resultado de mediaciones: del lenguaje, de las convenciones, de la tradición. Si los científicos no son menos humanos por colaborar con máquinas, tampoco lo son los escritores. El problema no está en los algoritmos, sino en la mirada con que los evaluamos.

Bibliografía

  • Jumper, J. et al. (2021). Highly accurate protein structure prediction with AlphaFold. Nature, 596, 583–589.
  • Narayanan, A. (2019). How AI is changing financial trading. Financial Times.
  • Esteva, A. et al. (2017). Dermatologist-level classification of skin cancer with deep neural networks. Nature, 542, 115–118.
  • Medium (usuario anónimo). (2023). AI writing sounds like AI. Medium.

 

Comentarios

Entradas populares de este blog

Impacto de la revolución lingüística Saussureana en el pensamiento moderno

El punto de vista crea el objeto: La universalidad de la teoría de F. de Saussure

Areopagitica 2.0: John Milton y la Libertad de Expresión en la Era Digital