Leyes de Asimov. Normas de aplicación | Mircea Băduţ

Por Mircea Băduţ

(Colaboración especial para Máquina Combinatoria desde Rumania)

Las primeras preocupaciones sobre los problemas sociales de convivir con robots surgieron con el término robot (1920). En este contexto, en 1942 el escritor Isaac Asimov definió las famosas ‘leyes de los robots’, difundidas en todo el mundo a través de sus reconocidas prosas de ciencia ficción. En las siguientes líneas intentaremos analizar estas leyes desde la perspectiva de la aplicabilidad actual y especialmente futura en la sociedad humana.

Preámbulo

Al escuchar esta mañana la radio, en una breve alocución sobre el tema de los robots y la inteligencia artificial, la declaración de las famosas leyes de Asimov, seguidamente me dije a mí mismo que “los que tienen que escribir las reglas metodológicas de aplicación, ¡tienen que hacer un gran trabajo!”.

Por supuesto, alguna vez me fascinaron las historias en las que Isaac Asimov abordaba la infraestructura de las leyes de la robótica, historias que se volvieron no solo legendarias sino también –¡he aquí!–, una referencia para las preocupaciones de la humanidad en la perspectiva del avance de la automatización y la informática, y la inquietante contingencia de Singularity[1]. Sin embargo, en ese momento no sabía –y estoy agradecido por eso– que una ley es escueta, una declaración concisa y que, para funcionar en la práctica social, administrativa, económica y judicial, a menudo debe complementarse con detalles de aplicación concreta, detalles denominados “reglamentos para la aplicación de la ley” (“normas metodológicas”, en la cultura rumana).

Leamos las leyes de Asimov[2]:

Primera Ley: “Un robot no puede dañar a un ser humano, o, por inacción, permitir que un ser humano sufra daño.”

Segunda Ley: “Un robot debe obedecer las órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.”

Tercera Ley: “Un robot debe proteger su propia existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.”

Entonces, para los lectores de estas líneas, propongo el desafío de reflexionar (e incluso imaginar) el contenido de ‘las regulaciones o normas para la aplicación de las leyes de la robótica’. Puede ser que estas regulaciones sean para el uso de abogados –congresistas, tribunales, jueces, juristas– o para el de las entidades involucradas (constructores y programadores de robots; propietarios de futuros robots; robots conscientes y legalmente responsables; etc.)[3].

Intermezzo

Desde una concisa perspectiva, podemos admitir que la MORALIDAD consiste en las reglas de convivencia (o ‘reglas sociales’, por así decirlo). Y desde la perspectiva de la formación del individuo en la sociedad, se puede decir que la MORALIDAD nos llega de tres maneras:

  • A través de reflejos biológicos de intraespecies –instintos primarios de socialización, como vemos en los animales–;
  • Por medio de la educación –a través del ejemplo proporcionado por los padres y otros, y mediante el aprendizaje explícito, respectivamente–;
  • Por leyes escritas –concretamente definidas por determinados funcionarios de la sociedad–. Sobre este último tramo nos referiremos más adelante, pero por ahora veremos las cosas desde la perspectiva de la ‘inteligencia artificial’ que se supone anima a los robots.

En busca de las normas

En primer lugar, vale la pena reconocer que, desde la perspectiva del posible conflicto entre humanos y robots, o, más bien, entre humanos y tecnología autónoma –y propongo esta frase alternativa y comprensiva–, los enunciados de leyes formulados por Isaac Asimov son admirables, considerando el año de su publicación: 1942. Esto es solo dos décadas después de que Karel Čapek lanzara el término ‘robot’ a través de sus escritos de ficción[4].

Sin embargo, hoy, el enfoque legislativo de dichas leyes tan sintéticamente expresado nos parecería más bien pseudo-ético, o incluso divertido. Sí, visto en detalle, el texto de esas leyes de la robótica está desfasado y, desde la perspectiva de su aplicabilidad, tales leyes son francamente obsoletas. Por otro lado, ahora es poco probable una reformulación igualmente concisa, con un impacto parecido. Reconozcamos que la mentalidad de la sociedad ha cambiado demasiado desde entonces… El contexto también…

Así, últimamente todos somos testigos de varias “irradiaciones” de la inteligencia artificial popular –para el caso, recomiendo ver las aplicaciones web o las que se dan en la nube Google Maps y especialmente Google Translate– por las que hemos podido entender un poco lo que significa “aprendizaje automático” como premisa para una autonomía futura/posible, autonomía epistémica que en el año de 1942 no se podía anticipar. Pero esto es solo una parte del cambio de perspectiva.

Ahora, tomando en cuenta la experiencia de vida de la gente común del siglo XXI, lo que no necesariamente debe hacerse desde la perspectiva de la jurisprudencia, les sugiero que analicen un poco los textos de las tres leyes originales de la robótica –y tal vez incluso cabe leerlos desde la perspectiva de las posibles ‘normas metodológicas de aplicación’, en la forma que postulé a través de mi texto publicado hace tres años[5]–.

Primera ley: “Un robot no puede dañar a un ser humano”

Esta primera la ley asimoviana es esencial; parece ser fácil desde la perspectiva de su aplicación. Esto se debe a la similitud con las leyes clásicas de la moral humana, para las cuales existen normas tanto consuetudinarias como escritas en el derecho civil y penal. Dejemos atrás la sugerencia de exclusiones de esta declaración –es decir, esa maldita especulación de que “sí, el robot no puede dañar a ningún humano, pero sería libre de dañar a otro robot”–, y observemos, extrapolando la idea de similitud con las leyes humanas, que podemos hacer una serie de preguntas como:

  • ¿Podría ser que para el robot antropomórfico –antropomórfico literalmente pero también figurativamente, es decir, el robot destinado a convivir con los humanos– no aplique en primer lugar las leyes de los humanos, in integrum, a las que Asimov solo formuló un ‘codicilo’? En otras palabras, ¿no deberíamos considerar que las leyes de la robótica funcionan como un superconjunto legislativo, diseñado para complementar necesariamente las leyes civiles?
  • ¿Cuán autónomo y responsable –moral y civilmente– puede ser un robot cuando es fabricado y programado por otros? ¿Hasta qué punto se comparte la responsabilidad legal por los hechos/actos del robot con los humanos o robots que lo crearon? Más aún: ¿Es posible incriminar un algoritmo complejo, en el que la participación de creadores –humanos o robots– fue muy dispersa? (O:) ¿Cuánta dispersión puede asumir la responsabilidad hasta que se vuelve… caduca?

Hemos visto que, por el momento, la responsabilidad civil por incidentes delictivos o faltas provocadas por máquinas existentes –como los coches autónomos de Google o Tesla– se imputa a los creadores y/o propietarios –y si es solo un daño material, puede cubrirse utilizando el sistema de seguros–. Pero las cosas se complican en situaciones en las que esos robots terminan evolucionando en contextos/circunstancias imprevistas, que ya no pueden atribuirse a los creadores o propietarios.

Probablemente en la ‘jurisprudencia robótica temprana’ el concepto de INTENCIÓN –un concepto fundamental en la documentación judicial de crímenes– será algo simple de operar y detectar –y probablemente será precedido/reemplazado a menudo por el concepto de NEGLIGENCIA–, pero en un futuro lejano no será fácil instrumentalizarlo, porque un desarrollo excesivo e independiente de la inteligencia artificial podría alejar el “pensamiento” de los robots de la moral humana –es decir, puede resultarnos difícil distinguir los motivos/intenciones detrás de las decisiones/acciones de las superinteligencias–.

  • ¡Y una pregunta más! ¿Dónde está el límite entre el autómata en evolución independiente, plenamente responsable civilmente, y el incapaz de discernimiento moral? ¿Cómo llamamos a aquellos que no están completamente maduros legalmente? ¿Robots de responsabilidad limitada? ¿Androides menores?

Volvemos al texto de la primera ley de Asimov, a saber, la segunda parte de la declaración: “… o, mediante la no intervención, permitir que un ser humano sea dañado”. Aquí las cosas son realmente inciertas. Sí, un reglamento metodológico de aplicación puede fijar la expresión lacónica, aclarando que se refiere a un robot que está presenciando una lesión –entre paréntesis notaremos que la perspectiva de Asimov es una perspectiva jurídica incompleta: se refiere únicamente a los delitos violentos que tienen como objeto directo al ser humano, desconociendo efectivamente la multitud de hechos que indirectamente pueden perjudicar al ser humano, como ser el hurto, la calumnia, el contrabando, la corrupción, la mentira, el perjurio, el fraude, la contaminación, etc.–. Pero aún asumiendo el esclarecimiento de la posible norma de aplicación, todavía tenemos aspectos discutibles, como:

  • Un robot avanzado, que tiene conexiones múltiples/poderosas a la red de información –datos/información, sensores, cámaras de videovigilancia–, teóricamente podría presenciar crímenes dentro de un área con una cobertura geoespacial mucho más grande que las específicas del hombre, lo que podría fácilmente llevarlo a un estado de saturación, de inoperabilidad judicial;
  • No existe tal obligación en la ley humana de intervenir en un crimen en curso, por lo tanto, pedir a los robots que lo hagan, podría resultar ‘políticamente incorrecto’. De hecho, aquí brilla la perspectiva del ‘esclavo del hombre’ asociada con el robot a mediados del siglo pasado, una visión expresamente puesta en el texto por…

Segunda Ley: “Un robot debe obedecer las órdenes dadas por los seres humanos, siempre que no entren en conflicto con la Primera Ley”

Sí, la mayoría de la gente imagina que los robots –industriales, domésticos, medidores, aplicaciones de software, juguetes, enfermeras, robots de compañía, etc.– están destinados a servir a las personas, porque realmente son máquinas construidas para este propósito. Pero en el futuro, cuando/si su autonomía se expanda, aumentando sus capacidades de almacenamiento, procesamiento y comunicación, la perspectiva podría ser diferente. Ya hay mucha investigación técnico-científica y aplicaciones prácticas que demuestran que insertar habilidades de autodesarrollo –agregar independencia– puede ser una forma de resolver problemas más difíciles y más complejos –finalmente, aquí hacemos un paralelo epistemológico con la transición de la computadora von Neumann a la cuántica–.

Así, el autodesarrollo podría estar representado por ambos:

  • La acumulación de nuevos conocimientos –el crecimiento de la base de datos a través del autoaprendizaje–.
  • La modificación/optimización de algoritmos para el procesamiento de la información y la toma de decisiones –que nuevamente nos lleva a la cuestión de la responsabilidad legal–.

Abrimos ahora otro paréntesis, para señalar que, en la programación de software moderno, desde OOP en adelante, el límite entre los datos y el algoritmo ya no es estricto. Y con el tiempo, el paradigma podría cambiar aún más.

Además del modelo de aprendizaje automático (ML) mencionado anteriormente, tenemos otros conceptos relacionados: máquina a máquina (M2M), internet de las cosas (IoT), redes neuronales (NN), inteligencia artificial (AI). Pero hay que decir que tales frases y acrónimos a menudo forman una moda frívola –catalizada por la sed de exageración de la contemporaneidad–, un énfasis que prueba la esperanza, pero que también esconde la ingenuidad y la ignorancia. Y a menudo transmite ansiedad –una ansiedad injustificada, por ahora–: el hecho de que tengamos muchos autómatas que conocen ML, M2M, AI, NN e IoT no significa en absoluto que se desarrollarán pronto hasta que se “desteten” para causar esa Singularidad que teme la civilización humana.

Hacia el final, unas pocas palabras sobre la 3ª Ley: “Un robot debe proteger su propia existencia”

Aunque la Carta de Derechos Humanos establece que “toda persona tiene derecho al respeto de su integridad física y mental”, en ninguna parte se dice que el suicidio sea ilegal. En otras palabras, para las personas, su propia existencia es un derecho, no una obligación. ¿Por qué sería diferente para los robots? ¿Es porque son bienes materiales y no es bueno perderlos? ¿Hay un punto de vista… económico?

Pero hay un aspecto más cuestionable: para aplicar esta ley, esos robots deben ser conscientes de sí mismos, ya sea a través de la programación inicial o mediante el autodesarrollo.

Entonces, ¿qué significa “conciencia de sí mismo”? Aquí también podemos identificar al menos tres niveles:

  • El conocimiento almacenado –o los propios sensores– pueden informar al robot sobre el calibre y/o los grados de libertad de movimiento.
  • Conciencia: conocimiento reflexivo y asumido de las propias habilidades para interactuar y cambiar el mundo que lo rodea.
  • El significado/intuición de la unicidad y posiblemente la intuición de la perecibilidad.

Abrimos un nuevo paréntesis para una observación útil: la perecibilidad del robot evolucionado puede significar tanto la conciencia de la vulnerabilidad física como su finitud en el tiempo –su mortalidad, como atributo humano–. Y recordamos, también de Isaac Asimov, dos de sus escritos más representativos que se refieren a este aspecto: “Yo, el robot” y “El hombre positrónico” –ambos en El hombre bicentenario–.

Hablando de estos tres niveles de autoconciencia –cada uno puede corresponder a niveles definibles de responsabilidad civil/legal, y cada uno de ellos más o menos puede ser implementarse mediante algoritmos–, se puede encontrar en los animales, desde aquellos que son muchos y simples –pequeños herbívoros o carnívoros–, hasta aquellos mentalmente evolucionados –como elefantes, primates o delfines–.

En todo caso, terminamos con nuestra serie de preguntas y dilemas haciendo una observación más, de alguna manera transgresora: en términos de legislación, la civilización humana tiene al menos dos mil años de experiencia, por lo que podemos asumir que la dificultad no está en definir reglas. La verdadera prueba será definir qué es el robot.

Notas

[1] La asunción de un inminente futuro en el que la inteligencia artificial se fusionará con, o incluso superará a la inteligencia humana finalmente hasta tomar el control del mundo.

[2] Asimov, Isaac, The Bicentennial Man, Ballantine Books, New York, 1976.

[3] Băduţ, Mircea, ‘DonQuijotisme AntropoLexice‘, Europress Publishing-house, Bucureşti, 2017.

[4] Čapek, Karel, ‘R.U.R (Rossum’s Universal Robots)’, (pieza teatral) 1920.

[5] Cf.: Băduţ, Mircea, ‘DonQuijotisme AntropoLexice‘.


Mircea Băduţ se graduó en la Facultad de Ingeniería Eléctrica en 1992, en Craiova. Ha publicado once libros de informática en diversas editoriales del país: La computadora de tres tiempos (2001, 2003, 2007, 2012), AutoCAD de tres tiempos (2004, 2006, 2011), Sistemas de información geográfica GIS (2004, 2007), Sistemas de geoinformática para energía eléctrica (2008), Sistemas de geoinformática para administración e internos (2006), Informática en gestión (2003), Conceptos básicos de diseño con MicroStation (2001), Conceptos básicos de diseño con Solid Edge (2002, 2003), Informática para gerentes (1999) ), Computadora personal (1995), Conceptos básicos de uso y programación de PC (1994). Ha escrito más de trescientos artículos técnicos y científicos para revistas en Rumania, Alemania, Francia y Estados Unidos. Participa con ponencias en varias decenas de conferencias y simposios técnicos y científicos en Rumania y en Europa. También escribe prosa de ciencia ficción en Almanacs Anticipation (1997) y Science Fiction (2007), además de la revista Helion (Timisoara). Es coautor, junto con su hija, del libro Family Fictions (2011). (Tomado de Serial Readers: https://serialreaders.com/4811-biografie-mircea-badut.html)


Foto portada tomada de: https://bit.ly/3jAeEi3

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s