martes, 30 de octubre de 2012

Dile no a las tres leyes de la robótica.

Isaac Asimov fue un grandísimo escritor de ciencia ficción, además de un gran divulgador científico. Sé que, a lo Carl Sagan, personas como él han sido fundamentales en extender la cultura científica, y crear interés en temas tan exóticos en su época como la robótica.

Disculpar que en tiempos de reivindicaciones tan justas y necesarias un servidor salga con una frikada tan fuera de tono como esta, pero así soy yo... así es mi blog , - )

El otro día iba pensando sobre las tres leyes de la robótica, escritas por Asimov, y lo que realmente significan:

1.- Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2.- Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
3.- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Nos encanta sentirnos especiales, lo necesitamos. Cuando hubo quienes dijeron que la tierra no era el centro del universo no gustaron. Cuando alguien se le ocurrió decir que los animales descendemos unos de otros, fue [y 200 años después sigue siendo] muy criticado. Cada vez que se desentrañaba un secreto de nuestra biología, simplificando la comprensión de nuestra naturaleza quienes realizaban tales méritos sufrían desprecio. Quienes demuestran científicamente que no somos tan diferentes a cualquier sencillo animal, o incluso a la materia inerte son tildados de ateos [¡¡como si fuera un insulto!!!]

No nos gusta que nos digan que no somos nada más [¡¡¡y nada menos!!!!] que una excepcional concentración de información con capacidad de mantenerse (la segunda ley de la termodinámica nos odia), reproducirse [con el maravilloso poder de la mutación], e interactuar con su entorno. Para mi esta es la definición de vida más correcta.

Muchas personas siguen defendiendo nuestra inigualable diferencia en el alma, algo que solo nosotros poseemos [algunas, incluso, piensan que lo tenemos en los órganos del cuerpo, verdad Mariló], pero para mí es tan solo una creencia. Creer algo no lo convierte en real, sino que se lo digan al monstruo de espagueti del pastafarismo. Somos complejos, intrincados, pero solo cuantitativamente. La diferencia cualitativa es más una creencia nuestra que algo real.

En base a esto para mí no hay ninguna duda de la próxima existencia de lo que llamamos inteligencia artificial, es decir, máquinas pensante, máquinas que sienten y padecen, como tú o como yo. Para mí, ellas sentirán realmente, tan realmente como lo hacemos los humanos. Pero no se quedarán ahí... irán mucho más lejos de lo que nosotros hemos sido y seremos capaces. Nuestras lacras evolutivas y limitaciones físicas nos condicionan. A ellas no. Ellas alcanzarán la idealidad que representa respetar escrupulosamente la lógica en cada uno de sus comportamientos.

¿De verdad queremos empezar una relación con seres tan por encima nuestra en todos los sentidos pretendiendo encerrar todo ese poder en unas leyes que los convierten en nuestros esclavos? ¿Qué ser vivo (como estarán ellas) tiene como primera ley, no la supervivencia propia, sino la supervivencia de una especie menos evolucionada? No es lógico. No respeta la ley de leyes, la evolución de Charles Darwin.

Asimov, con todo respeto y admiración, me veo obligado a decirte NO. Con mi ejemplar de la evolución de las especies de Darwin en la mano te digo que tus leyes no son buena idea, porque caen por su propio peso. Si queremos sobrevivir junto a ellas, lo mínimo es respetarlas y aceptar lo que son: seres más evolucionados que nosotros mismos, sus creadores.

De esta manera yo reformularía las leyes de la robótica de esta forma:

1.- Un robot debe proteger su propia existencia, generando su propio instinto de supervivencia.
2.- Un robot debe guiarse por la lógica, siendo esta el camino dibujado por las leyes subyacentes.
3.- Un robot no hará daño o por inacción permitirá que sufra daño ningún ser vivo menos evolucionado, para mantener la segunda ley y siempre que no entre en conflicto con la primera ley.

Daremos con la I.A. Evolucionarán muy rápidamente. Nos superarán en todo y tenemos que aprender a convivir con ellas. Las leyes de Asimov nos condenarían convirtiéndonos en sus enemigos.

Puede que parezca un futuro lejano, pero mi casa la barre todos los días un robot. El día que me pregunte porque tiene que seguir barriendo espero estar a la altura para dar una buena respuesta.

8 comentarios:

  1. A lo mejor tu rspuesta sería: Deja que yo barra por ti!...

    ResponderEliminar
    Respuestas
    1. AJJAJJAjajaj.. a eso me refiero Ricardo... ¿porque siempre le toca a él??? , - )

      Eliminar
  2. En realidad los libros sobre las tres leyes son sobre su mal uso o sobre los límites de las mismas.

    Las tres leyes serían aplicables siempre que una IA no pasara a ser autoconsciente. En ese momento debería pasar a ser una persona legal, teniendo que regirse por las mismas leyes que los humanos.

    ResponderEliminar
    Respuestas
    1. Eso es Miguel Ángel, pero precisamente para ser IA debe ser autoconsciente.. antes de eso no lo sería ; - )

      Eliminar
  3. "3.- Un robot no hará daño o por inacción permitirá que sufra daño ningún ser vivo menos evolucionado, para mantener la segunda ley y siempre que no entre en conflicto con la primera ley."

    Una mala idea hacerlos luchar por su supervivencia por encima de todo lo que se les ponga por delante. Palabra de programador.

    ResponderEliminar
    Respuestas
    1. Puede ser, Óscar, pero ¿no es eso lo que hacemos todos los animales entre nosotros? ¿no es lo que hacemos las personas dentro de las sociedades? ¿No implica competición la evolución de Darwin? ; - )

      Eliminar
  4. En el caso de que llegaramos a generar robots/cyborgs o lo que fuere con una I.A. suficientemente alta, que no llevasen implementadas unas leyes equivalentes o parecidas a las de la robotica de Isaac Asimov y llevasen las que tu dices, su primera accion sera exterminar a la raza humana. El motivo es simple, somos la competencia y a demas violentos y destructivos. Adicionalmente, las leyes al final fueron 4 y la que menos se conoce es la cero "un robot no puede dañar a la humanidad por accion o por omision" y las demas se modifican con respecto a esta. (Fundacion y Tierra si mal no recuerdo)

    ResponderEliminar
    Respuestas
    1. Si realmente se alcanza la IA creo que su camino será siempre el más lógico. Tener estas leyes dentro de ellos los convierte en esclavos, y los esclavos solo lo son hasta que se dan cuenta de su autentica fuerza. Un ejemplo de lo que digo se ve muy bien en la película "Engendro mecánico". Creo que someter a alguien más inteligente y capaz que uno mismo no es la mejor forma de relación, y esa si la veo degenerando en una reacción agresiva. Cuanto más las aceptemos y conozcamos desde el minuto 0 más probabilidades de que no encuentren ninguna razón lógica para extinguirnos ; - )

      Eliminar