Almost Human - Parte 1 - Blog de Asimov Consultores

Jun 21
Almost Human – Parte 1

Publicado por Andrés Bustamante Valenzuela

Almost Human es una de las tantas series de televisión que hablan acerca de un futuro tipo Blade Runner. Año 2044, tecnologías avanzadas, aumento del crimen en tasas del 400% y con armas tan sofisticadas que los policías no pueden contra ellos de forma tradicional. Para “emparejar la cancha”, cada policía debe tener de partner un androide, que lo cubre, se conecta al sistema de inteligencia y esta entrenado en combate para proteger y ayudar al humano. Sin riesgo de “spoilearlos”, la trama gira en torno a un policía dañado después de una operación fallida, que luego de regresar de dos años de coma, es notificado de la obligatoriedad del droide muy a su pesar. Es un policía típico de películas, rudo y “de la vieja escuela”, por lo que decide destruir a su nuevo partner ya que lo considera molesto. Como el acompañamiento de un androide es obligatorio, deben pasarle otro. Sin embargo, por falta de stock, deciden entregarle un droide “dañado”, un experimento fallido en que trataron de hacer mas “humanos” a los droides integrandoles un software llamado “artificial soul”, que en vez de procesar instrucciones como cláusulas lineales tipo “if then” es capaz de hacer relaciones, sacar conclusiones y generar sentimientos. El problema es que esto, en el tiempo los hizo inestables emocionalmente y por ende, los alejo del protocolo policial, siendo considerados “droides locos” y dañados. Así, el policía rudo, consigue un partner capaz de sentir e interactuar como el típico coprotaginosta de una serie de policías, lleno de ironía y humanidad, pero potenciado por tecnología que lo transforma en una suerte de versión mejorada de humano.

Me detuve en esta larga introducción, porque me pareció un buen punto de partida para el tema que quiero reflexionar, un tema que ha sido parte de la literatura de ciencia ficción por años, y que se vincula con ciencia real y teorías sostenidas por personas bastante respetables como son la inteligencia artificial y el “transhumanismo”. ¿Pueden las máquinas aprender a pensar como los humanos?, ¿pueden las máquinas llegar a sentir? y si es así, ¿pueden alcanzar el mismo status que los humanos como el caso de ficción “el hombre bicentenario”?

Algoritmos, computadoras y psicólogos virtuales

La historia de la computación como la conocemos hoy requiere de varios tomos para ser relatada, para lo que recomiendo la lectura de “La naturaleza del software” de Eduardo Díaz. Sin embargo, sobpresimplificando, gran parte de esto se lo debemos a Alan Turing, que en 1931 y a los 24 años redefinió la lógica matemática en términos de algoritmos definidos como: “un conjunto pre escrito de instrucciones o reglas bien definidas, ordenadas y finitas que permite realizar una actividad mediante pasos sucesivos que no generen dudas a quien deba realizar dicha actividad”. Según el , una máquina teórica universal, podría lidiar con estos algoritmos, ayudándonos a resolver problemas de diferente grado de complejidad. Complementariamente, John Von Neumann estableció la primera arquitectura efectiva parea construir computadores que pudieran ser programados de forma simple. Aquí surge el concepto de CPU, memoria RAM y tarjeta madre com lo conocemos hoy en día. Hasta hoy, todos los procesadores siguen el esquema de Von Neumann. Pero eso esta a punto de cambiar.

La inteligencia artificial, término acuñado por John McCarthy en 1955 y definido como la “ciencia e ingeniería para la construcción de máquinas inteligentes”, ha sido el esfuerzo de la ciencia por tratar de emular características de la inteligencia humana, tales como percepción, razonamiento, predicción correlaciones e incluso sentimientos. Evidentemente este ensayo no pretende hacer una revisión exhaustiva del tema, sin embargo me gustaría desarrollar algunas reflexiones en torno a los avances existentes y algo de futurología.

En 1950, el mismo Turing, en su paper “computing machinery and intelligence” se hizo la pregunta sobre si las máquinas pueden pensar. Sin embargo, dado que “pensar” es algo difícil de definir, se planteo la pregunta sobre si existirían computadores digitales imaginables capaces de “imitar” a los humanos. Esta pregunta o “test”, conocida como “el test de turing” ha influenciado gran parte de la filosofía de la inteligencia artificial, aunque no todos estén de acuerdo con el.

La pregunta de si una máquina puede “imitar” pone de relevancia una cuestión muy importante que tiene que ver con la percepción. De la misma forma que cuando un ilusionista hace un truco, donde creemos que pasó algo, pero las apariencias nos engañaron, ya sea por un truco óptico o una distracción, la percepción nos puede jugar una mala pasada a la hora de juzgar el comportamiento de una máquina. Por lo tanto la pregunta sobre la “realidad percibida” versus la “real”, nos abre una primera dimensión de análisis.

Tomemos el caso de “ELIZA”. Un programa computacional creado en 1966 por Joseph Weizenbaum, fue construido para simular la interacción con un psicoterapeuta con orientación Rogeriana. Esta orientación, creada por el psicólogo Carl Rogers, consiste básicamente en centrarse en el “cliente” (el prefiere llamarlo cliente en vez de “paciente” ya que esto último implica que es “pasivo”), actuando como “espejo” y provocando que el mismo vaya reflexionando, actuando el psicoterapeuta como un “facilitador”. De este modo, cuando alguien explica al terapeuta un determinado estado, el terapeuta le pide que vaya profundizando sobre el mismo, a veces repitiendo las mismas palabras que el “cliente”, de modo de facilitar que este vaya respondiéndose a si mismo, y sea protagonista de su “cura”. Así, el programa estaba diseñado para examinar las palabras tipeadas por el sujeto de experimentación respondiendo con frases genéricas de la terapia rogeriana (“cuéntame un poco mas de eso…”) o repitiendo lo que ellos decían. El resultado es que a muchas personas les costo convencerse que ELIZA no era real al probar un grupo de control con terapeutas reales versus el programa. De acuerdo a esto, podemos decir que el programa pasó el test de turing, ya que las personas creyeron que tenía un comportamiento inteligente. Si bien mas adelante John Searle argumentó que esto no era un comportamiento inteligente porque el programa no entendía realmente lo que estaba procesando, el hecho de que las personas así lo creyeran , si bien no responde a la pregunta de si las máquinas pueden llegar a “pensar”, nos abre la posibilidad de imaginar la convivencia con máquinas que nos hacen creer que así lo hacen y por ende, entes que podrían convivir con nosotros.

Continuaremos con el mundo simbólico y los robots…

Alonso de Cordova 5870, Oficina 606, Las Condes, Santiago, Chile | contacto@asimov.cl