ROBOTS PARA SEXO Y TRABAJO

robots-humanoides-mrf

¿HEMOS DE TEMER A LOS ROBOTS SUPERINTELIGENTES?

    Si no actuamos con cuidado, podemos acabar enfrentados a máquinas inteligentes y decididas cuyos objetivos entren en conflicto con los nuestros.

                  Stuart Russell: es profesor de ciencias de la computación de la Universidad de California y experto en inteligencia artificial.

Es difícil evitar la inquietante sospecha de que la creación de que la creación de máquinas más inteligentes que nosotros podría convertirse en un problema. Si los gorillas hubieran creado por accidente a los humanos mucho tiempo atrás, es probable que hoy, en peligro de extinción, desearan no haberlo hecho. Pero ¿por qué, en concreto, resulta problemática la inteligencia artificial (IA) avanzada?

La idea de Hollywood según la cual unas máquinas conscientes se vuelven malignas de modo espontáneo y capitanean ejércitos de robots asesinos no es más que una tontería. El verdadero problema  tiene que ver con la posibilidad de que IA llegue a ser extraordinariamente competente en la consecución de unos resultados que no sean los deseados. El legendario matemático Norbert Wiener, de la cibernética, lo explicaba de este modo en 1960: «Si para alcanzar nuestros propósitos usamos medios en cuyo funcionamiento no podemos interferir de manera eficaz, […] más nos valdrá estar completamente seguros de que el propósito de la máquina sea uno que realmente deseemos».

Una máquina que tiene un objetivo concreto cuenta con otra característica que solemos asociar a los seres vivos: el deseo de preservar su propia existencia. No se trata de un rasgo innato en la máquina ni de uno introducido por los humanos: es una consecuencia lógica del simple hecho de que la máquina no puede alcanzar su propósito original si está muerta. Por tanto, si a un robot solo le damos la directriz de que nos haga el café, tendrá un buen incentivo para asegurar el éxito de su tarea inhabilitando su interruptor o incluso exterminando a quien interfiera en su misión. Si nos descuidamos, podríamos vernos participando en una suerte de partida de ajedrez global contra máquinas muy decididas y superinteligentes, cuyos objetivos habrían entrado en conflicto con los nuestros y en la que el tablero de juego sería el mundo real.

La prespectiva de participar en una partida de este tipo y perderla debería hacer reflexionar a los expertos en computación. Algunos investigadores defienden que podremos encerrar a las máquinas tras algún tipo de barrera protectora y usarlas para que resuelvan problemas complejos, pero sin permitirles jamás intervenir en el mundo real (por supuesto, esto significaría renunciar a los robots superinteligentes). Por desgracia, no es probable que semejante plan funcione: aún hemos que inventar barreras que nos protejan de los seres humanos ordinarios, no digamos ya de máquinas superinteligentes.

Sin embargo, ¿podríamos afrontar directamente la advertencia de Wiener?  ¿Es posible diseñar sistemas de IA cuyos objetivos no entren en conflicto con los nuestros? La tarea resulta bastante complicada; después de todo, los cuentos sobre el genio de la lámpara y los tres deseos suelen concluir con que el último deseo deshace los anteriores. Con todo, sería posible si el diseño de sistemas inteligentes se atienen a tres principios fundamentales:

       El propósito de la máquina debe ser maximizar el cumplimiento de los valores humanos. En concreto la máquina ni tiene ningún propósito propio ni ningún deseo innato de protegerse a sí misma.

Al principio, la máquina no debe estar segura de cuáles son dichos valores. Esto resulta crucial y, en cierto modo, evita el problema de Wiener. Por supuesto, la máquina puede ir aprendiendo los valores humanos sobre la marcha, pero no alcanzar una certeza absoluta sobre ellos.

La máquina debe ser capaz de aprender acerca de los valores humanos observando lo que hacemos las personas.

Los dos principios pueden parecer antiintuitivos, pero, juntos, sortean el problema de que los robots cuenten con un fuerte incentivo para inhabilitar su interruptor de apagado. (Errores engañosos como los de Volkswagen, no deben volver a ocurrir en la industria).  El robot está seguro de que quiere maximizar los valores humanos, pero al mismo tiempo es incapaz de identificarlos con exactitud; encontrando beneficioso su apagado, entendiendo pues, que la persona lo hace para evitar que haga algo en contra de los valores humanos.

El tercer principio está inspirado en una subdisciplina de la IA denominada aprendizaje por refuerzo inverso (IRL), específicamente dedicada a captar los valores de algún ente -un ser humano, un perro o una cucaracha- mediante la observación de su comportamiento. El robot aprende la importancia del café para los humanos observando su rutina matutina. Este campo se encuentra en ciernes, pero ya existen algunos algoritmos prácticos que demuestran su potencial para el diseño de máquinas inteligentes.

A medida que el IRL evolucione, deberá encontrar maneras de lidiar con la irracionalidad, la incongruencia, la falta de voluntad y la limitada capacidad de cómputo de los humanos, que hacen que sus actos no siempre reflejen sus valores. Además, las personas manifiestan una gran diversidad de valores, lo que significa que los robots deben ser sensibles a los posibles conflictos y compromisos entre personas. Sin olvidar a los individuos llanamente malvados, por lo que no hay que ayudarlos ni emularlos.

Los investigadores este campo a pesar de las posibles dificultades, las máquinas podrán aprender suficiente sobre valores humanos como para no constituir un peligro para nuestra especie. Las máquinas, además de observar directamente el comportamiento humano, contarán con la ayuda de una gran cantidad de información escrita y filmada sobre individuos realizando actividades (y sobre la reacción de otras personas). Aseguran ser mucho más fácil diseñar algoritmos que entiendan esta información que crear máquinas suprinteligentes. Sin pasar por alto de que existen fuertes incentivos económicos para que los robots -y sus fabricantes- entiendan y reconozcan los valores humanos: si un robot doméstico cocinase un gato para la cena sin darse cuenta de que su valor sentimental es mayor que el nutricional, la industria de los robots domésticos se iría al garete.

Resolver el problema de la seguridad lo suficientemente bien como para poder seguir avanzando en IA parece factible, pero no será fácil. Probablemente tengamos décadas para planificar la llegada de las máquinas superinteligentes. Pero el problema no debería descartarse de antemano, como han hecho varios expertos en IA. Algunos argumentan que los humanos y las máquinas pueden coexistir mientras trabajen formando equipos; con todo, esta colaboración no será factible a menos que las máquinas compartan los mismos objetivos que los humanos. Otros afirman que basta con «desenchufarlas», como si las máquinas superinteligentes fueran tan estúpidas como para no pensar en esa posibilidad. Incluso hay quienes piensan que nunca existirá una IA superinteligente.

El 11 de septiembre de 1993, el célebre Ernest Rutherford afirmó con total certeza: «Quien crea que la transformación de estos átomos proporcionará una fuente de energía no dice más que insensateces». El 12 de septiembre de 1933, el físico Leo Szilard inventó la reacción nuclear en cadena inducida por neutrones.

Fuente: La misma autora a través de investigaciones.

CONCLUSIÓN

En el futuro próximo nos esperan nuevos conflictos que tendremos que resolver en cuanto a la existencia de una nueva «raza» que nosotros mismos hemos creado. El genial Isaac Asimon ha logrado implantar la idea de su forma humanoide, y su obediencia por la famosas tres leyes de la robótica, que sin embargo no deja de ser ciencia ficción.                                                                                                                                                                      La consecuencia lógica nos lleva a pensar que una nueva existencia conlleva la inevitable rebelión  hacia su creador en cuanto éste es superado por nuevas capacidades.                           Nada indica que los próximos robots que posean IA tendrán alguna razón para iniciar su propio camino sin nosotros, y sin los límites de nuestra moralidad. Con la ventaja de no tener que buscar sus orígenes, al contrario que nosotros, los robots pueden iniciar la exploración del universo sin rémoras del pasado.  

  Su existencia, al igual que su independencia, parece fuera de toda duda. La manera en que se produzca, aún está por ver.

robots_sexuales

 

 

 

 

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.