Cuando se habla de Isaac Asimov y sus leyes, se nos viene a la mente la gran pelicula de James Cameron «Terminator». Es difícil encontrar un aficionado a la ciencia ficción que no haya oído hablar de ellas. Estas leyes, incorporadas a casi todos los robots positrónicos de sus historias, están diseñadas como un mecanismo de seguridad para mantener a los androides autónomos bajo control. Son:
-
Primera Ley
Un robot no puede herir a un ser humano o, por inacción, permitir que un ser humano sufra daños.
-
Segunda ley
Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
-
Tercera ley
Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Dado el impacto duradero de las leyes y el prestigio de Asimov como prolífico autor de ficción y profesor de bioquímica, a menudo se ha preguntado si se utilizarán realmente en el diseño de la inteligencia artificial de la vida real.
Hasta ahora, el consenso parece ser «no».
Las reglas de Isaac Asimov son bonitas, pero también son una locura
Dejando a un lado los problemas de codificación, las tres leyes plantean verdaderos problemas. De hecho, muchas de las historias de Asimov se centran en cómo se pueden eludir. Como escribió P.W. Singer, editor colaborador de Popular Science y experto en la guerra del siglo XXI:
Por ejemplo, en una de las historias de Asimov, se hace que los robots sigan las leyes, pero se les da un cierto significado de «humano». Prefigurando lo que ahora ocurre en las campañas de limpieza étnica del mundo real, los robots sólo reconocen como «humanos» a las personas de un determinado grupo. Siguen las leyes, pero siguen llevando a cabo el genocidio.
Cuando Asimov escribió sus leyes, no podía prever del todo cómo los humanos utilizarían la inteligencia artificial, las máquinas nos ganan en Jeopardy, ajedrez y póker. Conducen nuestros coches y realizan nuestras cirugías. En lugar de tener conciencia de sí mismas, funcionan con intrincados algoritmos programados por creadores humanos.
En la visión de Asimov, las máquinas de inteligencia artificial son nuestros sirvientes. En el mundo real, son extensiones de nosotros mismos. Eso significa que las leyes que rigen las máquinas artificialmente inteligentes deben regir también a los humanos que las diseñan.
Varios pensadores y organizaciones han considerado cuáles podrían ser esas leyes. En NewScientist, Gilead Amit utilizó las leyes de Asimov como punto de partida.
«Un robot no puede herir a un ser humano ni permitir que un ser humano sufra daños, a menos que sea supervisado por otro ser humano», escribió. Además, «un robot no debe hacerse pasar por un humano», a menos que la distinción entre humano y máquina sea inquietantemente borrosa.
Los investigadores de Google han establecido más reglas. Por ejemplo, una inteligencia artificial no debe dañar innecesariamente otras cosas en la búsqueda de sus objetivos, ni debe tomar atajos para «hackear» sus objetivos programados. Piensa en un robot que intenta «limpiar» un desorden simplemente poniendo algo encima.
Cambridge Consultants, una de las principales consultoras de STEM, esbozó los ideales de la Inteligencia Artificial responsable en un informe de 2018, en comparación a las de Isaac Asimov, llegaron a esta conclusión:
Responsabilidad
Tiene que haber una persona específica responsable de los efectos del comportamiento de un sistema autónomo. Esto no es solo para la reparación legal, sino también para proporcionar retroalimentación, monitorear los resultados e implementar cambios.
Explicabilidad
Debe ser posible explicar a las personas afectadas (a menudo no profesionales) por qué el comportamiento es el que es. Esto es vital para la confianza.
Exactitud: hay que identificar, controlar y evaluar las fuentes de error y, si procede, mitigarlas o eliminarlas.
Transparencia
Debe ser posible probar, revisar (pública o privadamente), criticar y cuestionar los resultados producidos por un sistema autónomo. Los resultados de las auditorías y evaluaciones deben estar disponibles públicamente y ser explicados.
Imparcialidad
La forma de utilizar los datos debe ser razonable y respetar la privacidad. Esto ayudará a eliminar los prejuicios y a evitar que se arraiguen otros comportamientos problemáticos.
Teniendo en cuenta todo lo que hemos aprendido sobre la inteligencia artificial en las muchas décadas transcurridas desde que Isaac Asimov escribiera sus Tres Leyes de la Robótica, podemos concluir con seguridad que están desfasadas. Aunque dieron lugar a argumentos provocadores, es mejor dejarlas por escrito.