Por qué la IA necesita un cuerpo físico para alcanzar su potencial
REDACCIÓN NOTI AMÉRICA (ECUADOR)
- La inteligencia artificial puede superar el mejor desempeño humano en tareas específicas, escribe el profesor de informática Mark Lee.
- Pero para comprender verdaderamente las emociones y desarrollar un sentido de sí mismo, la IA deberá estar alojada en un cuerpo de robot.
La inteligencia artificial parece estar haciendo enormes avances. Se ha convertido en la tecnología clave detrás de los vehículos autónomos , los sistemas de traducción automática , el análisis de voz y texto, el procesamiento de imágenes y todo tipo de sistemas de diagnóstico y reconocimiento. En muchos casos, la IA puede superar los mejores niveles de rendimiento humano en tareas específicas.
Estamos siendo testigos del surgimiento de una nueva industria comercial con una intensa actividad, una inversión financiera masiva y un enorme potencial. Parecería que no hay áreas que no puedan ser mejoradas por la IA: no hay tareas que no se puedan automatizar, no hay problemas que al menos no puedan ser ayudados por una aplicación de IA. Pero, ¿es esto estrictamente cierto?
Los estudios teóricos de la computación han demostrado que hay algunas cosas que no son computables . Alan Turing, el brillante matemático y descifrador de códigos, demostró que algunos cálculos podrían no terminar nunca (mientras que otros tardarían años o incluso siglos).
Por ejemplo, podemos calcular fácilmente algunos movimientos por delante en una partida de ajedrez, pero examinar todos los movimientos hasta el final de un juego de ajedrez típico de 80 movimientos no es nada práctico. Incluso utilizando una de las supercomputadoras más rápidas del mundo, que funciona a más de cien mil billones de operaciones por segundo, llevaría más de un año explorar solo una pequeña parte del espacio del ajedrez. Esto también se conoce como problema de ampliación .
Las primeras investigaciones sobre IA a menudo producían buenos resultados en pequeñas cantidades de combinaciones de un problema (como ceros y cruces, conocidos como problemas de juguete), pero no se ampliarían a otros más grandes como el ajedrez (problemas de la vida real). Afortunadamente, la IA moderna ha desarrollado formas alternativas de abordar estos problemas. Estos pueden vencer a los mejores jugadores humanos del mundo, no mirando todos los movimientos posibles hacia adelante, sino mirando mucho más allá de lo que la mente humana puede manejar. Para ello, utiliza métodos que incluyen aproximaciones, estimaciones de probabilidad, grandes redes neuronales y otras técnicas de aprendizaje automático.
Pero estos son realmente problemas de informática, no de inteligencia artificial. ¿Existe alguna limitación fundamental para que la IA funcione de manera inteligente? Un problema serio se vuelve evidente cuando consideramos la interacción entre humanos y computadoras. Se espera ampliamente que los futuros sistemas de IA se comuniquen con los humanos y los ayuden en intercambios sociales amigables y completamente interactivos.
Teoria de la mente
Por supuesto, ya tenemos versiones primitivas de tales sistemas. Pero los sistemas de comandos de audio y el procesamiento de guiones al estilo de un centro de llamadas simplemente fingen ser conversaciones . Lo que se necesita son interacciones sociales adecuadas, que involucren conversaciones fluidas a largo plazo durante las cuales los sistemas de inteligencia artificial recuerden a la persona y sus conversaciones pasadas. La IA deberá comprender las intenciones y creencias y el significado de lo que dice la gente.
Esto requiere lo que se conoce en psicología como una teoría de la mente : la comprensión de que la persona con la que estás comprometido tiene una forma de pensar y, aproximadamente, ve el mundo de la misma manera que tú. Entonces, cuando alguien habla de sus experiencias, puedes identificar y apreciar lo que describe y cómo se relaciona contigo mismo, dando sentido a sus comentarios.
También observamos las acciones de la persona e inferimos sus intenciones y preferencias a partir de gestos y señales. Entonces, cuando Sally dice: «Creo que a John le gusta Zoe, pero piensa que Zoe lo encuentra inadecuado», sabemos que Sally tiene un modelo de primer orden de sí misma (sus propios pensamientos), un modelo de segundo orden de los pensamientos de John y un modelo de tercer orden de lo que John piensa que piensa Zoe. Observe que necesitamos tener experiencias de vida similares para comprender esto.
Aprendizaje fisico
Está claro que toda esta interacción social sólo tiene sentido para las partes involucradas si tienen un » sentido de sí mismos » y pueden igualmente mantener un modelo del yo del otro agente. Para comprender a otra persona es necesario conocerse a uno mismo. Un «auto modelo» de IA debe incluir una perspectiva subjetiva, que involucre cómo opera su cuerpo (por ejemplo, su punto de vista visual depende de la ubicación física de sus ojos), un mapa detallado de su propio espacio y un repertorio de habilidades y habilidades bien entendidas. comportamiento.
Eso significa que se requiere un cuerpo físico para fundamentar el sentido del yo en datos y experiencias concretas. Cuando una acción de un agente es observada por otro, puede entenderse mutuamente a través de los componentes compartidos de la experiencia. Esto significa que la IA social deberá realizarse en robots con cuerpos. ¿Cómo podría una caja de software tener un punto de vista subjetivo de, y en, el mundo físico, el mundo en el que habitan los humanos? Nuestros sistemas de conversación no solo deben estar integrados, sino incorporados.
Un diseñador no puede construir efectivamente un sentido de sí mismo de software para un robot. Si un punto de vista subjetivo fuera diseñado desde el principio, sería el propio punto de vista del diseñador, y también necesitaría aprender y hacer frente a experiencias desconocidas para el diseñador. Entonces, lo que necesitamos diseñar es un marco que apoye el aprendizaje de un punto de vista subjetivo.
Afortunadamente, existe una salida a estas dificultades. Los seres humanos se enfrentan exactamente a los mismos problemas, pero no los resuelven todos a la vez. Los primeros años de la infancia muestran un increíble progreso en el desarrollo , durante los cuales aprendemos a controlar nuestro cuerpo y a percibir y experimentar objetos, agentes y entornos. También aprendemos cómo actuar y las consecuencias de los actos y las interacciones.
La investigación en el nuevo campo de la robótica del desarrollo ahora está explorando cómo los robots pueden aprender desde cero, como los bebés. Las primeras etapas implican descubrir las propiedades de los objetos pasivos y la «física» del mundo del robot. Más tarde, los robots notan y copian las interacciones con los agentes (cuidadores), seguidas de un modelado gradualmente más complejo del yo en contexto. En mi nuevo libro , exploro los experimentos en este campo.
Entonces, si bien la IA incorpórea definitivamente tiene una limitación fundamental, la investigación futura con cuerpos de robots puede algún día ayudar a crear interacciones sociales duraderas y empáticas entre la IA y los humanos.
Fuente: Foro Económico Mundial