La Prueba de Turing Reactiva Debate Sobre Inteligencia Artificial, Conciencia de las Máquinas y Si la Imitación Humana Equivale al Pensamiento Real.
Con avances rápidos y cada vez más sofisticados, la Inteligencia Artificial ha comenzado a comunicarse de forma tan convincente que ya confunde a usuarios alrededor del mundo.
El debate sobre si las máquinas realmente piensan como humanos ganó fuerza tras nuevos estudios que apuntan a que sistemas modernos superan a personas en el Test de Turing, creado en 1950 por Alan Turing.
Investigadores, filósofos y desarrolladores discuten ahora, en universidades y centros de investigación internacionales, si esta imitación humana representa inteligencia real o solo un truco estadístico — y cuáles son las implicaciones éticas, científicas y legales de este avance.
-
La col rizada, el repollo y el brócoli se utilizan para extraer metal talio de suelos tóxicos y proporcionar materia prima para la industria de alta tecnología.
-
Nuevos músculos artificiales movidos por aire permiten que las máquinas levanten hasta 100 veces su propio peso con movimientos fluidos.
-
Nuevo sistema que detecta el peligro, decide la ruta ideal y supera obstáculos en el transporte de cargas pesadas.
-
Investigadores desarrollan un nuevo sistema de criptografía avanzada para proteger archivos de video contra la futura amenaza de ataques de la computación cuántica.
La Prueba de Turing: El Experimento que Mide la Imitación Humana
La Prueba de Turing surgió como un intento de transformar una cuestión filosófica en algo medible.
Propuesto por el matemático británico Alan Turing, el test evalúa si una computadora puede hacerse pasar por humano en una conversación escrita.
En este juego de imitación, una persona interactúa con dos interlocutores — un humano y una máquina — sin saber quién es quién.
Tras unos minutos, el evaluador necesita decidir cuál de ellos es humano.
Según Turing, si la máquina engañaba al juez al menos el 30% de las veces, podría ser considerada inteligente.
La predicción parecía audaz, pero hoy se muestra conservadora ante los números recientes.
Cuándo la Inteligencia Artificial “Pasó” el Test de Turing
En 2014, el chatbot Eugene Goostman convenció al 33% de los evaluadores de que era humano al asumir la identidad de un niño ucraniano de 13 años. El resultado superó el límite propuesto por Turing, pero generó controversia.
Markus Pantsar, filósofo de la Universidad RWTH Aachen, afirmó que el sistema no estaba “jugando el juego de manera justa”, justo por explorar limitaciones lingüísticas y culturales.
Desde entonces, los resultados han avanzado de forma expresiva. Un estudio publicado a principios de 2025 señaló que ChatGPT 4.5 fue identificado como humano en el 73% de las interacciones, mientras que Llama 3.1, de Meta, alcanzó el 56%.
“Me parece difícil argumentar que los modelos no pasaron la prueba, dado que son juzgados como humanos significativamente más veces que las personas”, afirmó Jones, autor del estudio.
¿Conciencia de las Máquinas o Solo Apariencia?
A pesar de los números, muchos expertos cuestionan si pasar la Prueba de Turing significa poseer conciencia de las máquinas.
Para estos críticos, convencer a alguien no es lo mismo que comprender.
Es en este punto que entra el famoso Cuarto Chino, experimento mental creado por el filósofo John Searle, en 1980.
En el ejemplo, un hombre que no entiende chino responde correctamente a preguntas en ese idioma solo siguiendo reglas.
Para quien observa desde fuera, parece que comprende el idioma. Sin embargo, internamente, no hay comprensión real — solo manipulación de símbolos.
Según Searle, la Inteligencia Artificial funcionaría de la misma forma.
El Cuarto Chino y las Limitaciones de la Inteligencia Artificial
Searle ilustra su crítica con ejemplos prácticos. “Puedes pedir a un bot de IA que explique cómo funciona un reloj analógico, y lo hará con precisión”, explica.
Por otro lado, al solicitar que la máquina genere la imagen de un reloj marcando una hora específica, los errores siguen siendo comunes. Esto reforzaría la idea de que la IA no entiende conceptos, solo replica patrones.
Para Pantsar, la Prueba de Turing exagera la importancia de la capacidad de engañar. “El comportamiento inteligente real puede incluir engañar, pero, fundamentalmente, esa no es la parte principal”, afirma.
Pruebas Alternativas a la Prueba de Turing
Como respuesta a las críticas, surgieron nuevos métodos de evaluación. Uno de ellos es la Prueba de Inteligencia Basada en Comunidad (CBIT), creada por Pantsar.
En este modelo, la Inteligencia Artificial se inserta en una comunidad real, como foros de matemáticos, sin que los miembros sepan que están interactuando con una máquina.
El enfoque deja de ser el engaño directo y pasa a ser el comportamiento funcional.
Imitación Humana, Ciencia y Responsabilidad Legal
Otros investigadores defienden criterios aún más rigurosos.
Para Mappouras, la inteligencia artificial general solo se alcanzará cuando una máquina logre proponer nuevos conocimientos científicos y explicarlos.
Mientras tanto, crece la preocupación por la responsabilidad. Pantsar defiende marcos legales que obliguen a los sistemas de IA a identificarse como máquinas.
“Si publicara un artículo con errores, yo sería responsable. Pero si es un texto escrito por IA, nadie lo es”, advierte.
Jones, por su parte, cree que la Prueba de Turing sigue siendo relevante.
“Cada vez más personas entran en debates en línea sin saber si están hablando con un humano”, dice. “La prueba mide exactamente esa probabilidad.”
Un Debate Lejos del Fin
A medida que la Inteligencia Artificial evoluciona, distinguir entre humanos y máquinas puede convertirse en una tarea imposible. Si esto representa conciencia real o solo imitación humana sofisticada, aún es una cuestión abierta.
El consenso, por ahora, es que el debate sobre la Prueba de Turing, el Cuarto Chino y la conciencia de las máquinas está lejos de acabar — y debe moldear el futuro de la tecnología, la ciencia y la sociedad.

It’s becoming clear that with all the brain and consciousness theories out there, the proof will be in the pudding. By this I mean, can any particular theory be used to create a human adult level conscious machine. My bet is on the late Gerald Edelman’s Extended Theory of Neuronal Group Selection. The lead group in robotics based on this theory is the Neurorobotics Lab at UC at Irvine. Dr. Edelman distinguished between primary consciousness, which came first in evolution, and that humans share with other conscious animals, and higher order consciousness, which came to only humans with the acquisition of language. A machine with only primary consciousness will probably have to come first.
What I find special about the TNGS is the Darwin series of automata created at the Neurosciences Institute by Dr. Edelman and his colleagues in the 1990’s and 2000’s. These machines perform in the real world, not in a restricted simulated world, and display convincing physical behavior indicative of higher psychological functions necessary for consciousness, such as perceptual categorization, memory, and learning. They are based on realistic models of the parts of the biological brain that the theory claims subserve these functions. The extended TNGS allows for the emergence of consciousness based only on further evolutionary development of the brain areas responsible for these functions, in a parsimonious way. No other research I’ve encountered is anywhere near as convincing.
I post because on almost every video and article about the brain and consciousness that I encounter, the attitude seems to be that we still know next to nothing about how the brain and consciousness work; that there’s lots of data but no unifying theory. I believe the extended TNGS is that theory. My motivation is to keep that theory in front of the public. And obviously, I consider it the route to a truly conscious machine, primary and higher-order.
My advice to people who want to create a conscious machine is to seriously ground themselves in the extended TNGS and the Darwin automata first, and proceed from there, by applying to Jeff Krichmar’s lab at UC Irvine, possibly. Dr. Edelman’s roadmap to a conscious machine is at https://arxiv.org/abs/2105.10461, and here is a video of Jeff Krichmar talking about some of the Darwin automata, https://www.youtube.com/watch?v=J7Uh9phc1Ow