miércoles, 21 de junio de 2017

CIENCIA - Inteligencia Artificial, realidad tras la ficción: Entrevista con Claudio Delrieux

La mayor parte de los seres humanos, de cualquier cultura y sustrato social, está familiarizada con el concepto de Inteligencia Artificial (IA). Incluso quien conoce poco y nada de cuestiones específicas del universo del desarrollo tecnológico entiende de qué se habla cuando se habla de eso. Gran parte de ese conocimiento sin embargo proviene del ámbito de la ficción y no del científico; es decir: todos entienden de qué se habla, pero casi nadie sabe realmente nada.
Para comprobarlo puede realizarse la siguiente experiencia. Confeccionar dos listas de nombres. Incluir en la primera a Isaac Asimov, Steven Spielberg y Philip K. Dick, y en la segunda a Douglas Hofstadter, Roger Penrose y Stuart Hameroff. Al presentarlas a diferentes sujetos se comprobará que casi todos reconocen al menos un nombre de la primera, integrada por escritores y directores de cine que han abordado y desarrollado el imaginario en torno de la IA, mientras que lo ignorarán todo acerca de la segunda, compuesta por algunas de las más grandes eminencias vinculadas al desarrollo de diversas teorías aplicadas a la producción real de dicha tecnología. Lo dicho, demasiada ficción, lo cual no necesariamente es malo.

Claudio Delrieux es investigador del Conicet, docente universitario y miembro de la Sociedad Argentina de Informática (SADIO). Su área de especialización es, claro, la IA, hecho que lo convierte en la persona indicada para indagar y conocer un poco más acerca de realidades y fantasías en torno del asunto. “El nombre de IA nace a partir de slogans grandilocuentes motivados por razones extra-científicas, mayormente la competencia por tener notoriedad y obtener espacio de poder y dinero dentro de los sistemas de financiamiento”, comienza el especialista para inientar aclarar el concepto. “Se podría entender que la IA se contrapone a la inteligencia natural, que es la que exhibimos (si acaso) los organismos biológicos emergentes de la evolución natural. Entonces IA sería la inteligencia que exhiben los sistemas emergentes de un contexto artificial. El problema de esta definición es que no aclara de qué se trata la inteligencia”. Según Delrieux esa es punta del ovillo, ya que “cuando se intentan encontrar definiciones de inteligencia, vemos que en ciencias cognitivas hay tantas propuestas como investigadores y se hace dudoso determinar que los sistemas informáticos “inteligentes” realmente posean esas cualidades”. “Muchos pensamos que un atributo inherente en cualquier entidad inteligente es la capacidad de autopreservación y de reproducción, cosa que los sistemas artificiales no poseen. Por dicha razón, el objetivo hipotético inicial ha quedado prácticamente abandonado”, continúa.

-Pero debe haber algún concepto sobre el que haya un acuerdo más o menos general.
-Hay definiciones que se ajustan hasta cierto punto a los objetivos de ciertos programas de investigación, que se vinculan a diferentes ramas específicas de la ciencia. La visión utilitarista refiere a Sistemas Informáticos (SI) que permiten encontrar decisiones que maximizan una función objetivo (teoría de la decisión, economía matemática, optimización). En cambio en la psicologista los SI se comportan de maneras similares a los seres humanos (psicología cognitiva). Por último la formalista, en donde los SI permiten descubrir modelos, teorías o sistemas formales (teoría de la ciencia, lógica).  
-Mi conocimiento sobre IA procede de la ficción y a partir de ahí imagino que esta se basa en la mecánica de razonamientos algorítmicos, matemáticos, pero que carece por completo del carácter intuitivo de la inteligencia natural.
-Ahí hay un “malentendido-pop”, si me permitís. El hecho de que un programa ejecute un algoritmo es isomorfo (semejante) al de que el cerebro obedece leyes físicas deterministas. En otras palabras, que la IA se ejecute en un contexto algorítmico no la hace necesariamente autista. En su libro Gödel-Escher-Bach, Douglas Hofstadter especula con que las características “intuitivas” y muchas otras de la inteligencia natural se deben mayormente a la plasticidad que da un sistema de complejidad muy grande, y no al sustrato físico del sistema. Mi opinión personal es que los sistemas artificiales van a tener avances espectaculares, pero siempre les va a faltar un poco para igualar al humano.  
-¿Y en qué estadío se encuentra el desarrollo de tecnologías vinculadas a la creación de IA?
-Desde el punto de vista de la investigación y desarrollo, esta tecnología es un campo inabarcable. Haría falta algún periodista científico al estilo James Gleick que pueda dedicar tiempo a ver qué hacen las empresas, dado que éstas están asumiendo un protagonismo importantísimo, pero normalmente no publican sus resultados en los foros científicos. Volviendo a la pregunta del comienzo, como el objetivo final no está bien definido, entonces no es posible establecer un “estadío” sino solo avances y logros, desde lo científico-tecnológico, desde lo útil o aplicado, o a veces desde lo cultural (como ganar un campeonato mundial de Go). Podríamos decir que la IA “utilitarista” está muy avanzada gracias a modelos recientes como el deep learning, la “psicologista” está en un estado intermedio, y la “formalista”, salvo logros muy puntuales, está lejos de tener relevancia inmediata.  
-¿A qué distancia se encuentra la ciencia en la actualidad de producir IA artificial capaz de emular a la humana, no sólo en su mecanismo analítico sino también en su interfaz física, como los androides que imagina la ciencia ficción?
-Creo que quien dio en el clavo con los problemas importantes fue Philip Dick. En la novela sobre la cual se basó Blade Runner (¿Sueñan los androides con ovejas eléctricas?) y en muchas de sus historias cortas él toma la especulación acerca de si lo que constituye la “naturaleza humana” es el sustrato biológico. El planteo ético sería: ¿es más humano el organismo biológico cruel e insensible que el androide con empatía? Esa es una de sus obsesiones literarias (ver su historia corta “Human Is”, o el impagable momento final de “Now wait for next year”). Por otro lado, por cuestiones estéticas o frívolas, dotar a un mecanismo de una apariencia humana es siempre deseable (como ocurre con los avatares en juegos), por lo tanto existe una utilidad real en darle a los productos basados en IA un “factor de forma” que los haga mercadeables.  
-Llegados a este punto, ¿cuál sería la diferencia entre inteligencia y conciencia?
-Bueno, Roger Penrose y Stuart Hammeroff desarrollaron una teoría que lleva su nombre acerca del concepto de conciencia, del por qué ésta ocurre en los humanos y tal vez organismos con sistemas nerviosos de determinadas características, y por qué dotar a una máquina de este atributo está exponencialmente más lejos de lo que creemos. Es interesante que esta teoría, que ya tiene 30 años, desarrolló una serie de predicciones que fueron inexorablemente cumpliéndose, lo cual la hace bastante creíble (al margen de que Penrose es un ultra-capo, no solo más grosso como astrofísico que el famoso Stephen Hawkins, sino también como matemático, divulgador, y especulador científico). Mientras que la inteligencia es algo que parece acompañar y desarrollarse en los seres que tienen necesidad de preservarse y reproducirse, la conciencia parece reflejar otro tipo de procesos (la expresión, la introyección, y la comunicación, estas todas trascendiendo los fines de la inteligencia). Volviendo a la Sci-Fi, en una historia de Stanislaw Lem una ultracomputadora desarrollada en el Pentágono adquiere autoconciencia y a partir de eso decide dedicarse al “problema ontológico”, porque el “problema bélico” le parece aburrido. ¿Será esa una diferencia entre inteligencia y conciencia? 

Artículo publicado originalmente en la Revista T de Tiempo Argentino.

No hay comentarios.: