
Inteligencia Artificial. ¿Yo robot o yo esclavo?
La Ley Cero dice: “Un robot no puede dañar a la humanidad o por inacción, permitir que la humanidad sufra daños”.
Su autor fue el escritor Isaac Asimov, célebre por sus novelas de ciencia ficción y por sus libros de divulgación científica. En una de sus ficciones, Asimov incluyó esta Ley Cero, para preceder a las otras tres:
Primera ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Estas leyes han impregnado la ciencia ficción en libros y películas, pero también impactado profundamente en el pensamiento sobre la ética de la Inteligencia Artificial (IA).
No nos percatamos, pero hace tiempo que nos rodea e interviene una incipiente IA, que no es lo mismo que un asistente inteligente, como la mayoría de las aplicaciones que usamos como Google Maps o Alexa, que utilizan lenguaje avanzado y capacidad para el reconocimiento de imágenes. Un vehículo autónomo tiene una inteligencia bastante menor, pero es mucho más potente, así las cosas, y ante la ausencia de acuerdos y controles, las leyes de Asimov adquieren más vigencia que nunca.
La IA es una superinteligencia y será capaz de programarse a sí misma y este es el cambio de paradigma real, el indicador no registrado que dispara todas las variables de riesgo, sobre las cuales no tenemos experiencia previa. Sin exagerar, la humanidad toda se enfrenta a un evento único.
El ser humano ha sido, hasta ahora, la forma más inteligente que la evolución ha conocido, por lo que el desafío implica el reconocimiento de otra forma de inteligencia altamente superior en sus habilidades -en comparación con el cerebro humano - y esto constituye un verdadero reto si su “programación” no es ética. Esta no una cuestión tecnológica, es un asunto ético y una decisión política.
La moral es la forma en que actuamos, el comportamiento, el hábito. La ética tiene que ver más con la teoría y la moral, con la práctica. La discusión se empantana en una incontrastable discusión filosófica: ¿la tecnología tiene ética? Lo que no está en discusión es la altísima dependencia de la humanidad de este potente estilo de vida en formato digital.
Cuando las máquinas y sus algoritmos incorporen accesorios y componentes cada vez más inteligentes, cuando sean socialmente capaces, sean empáticos con un niño o entiendan las emociones y se conecten unas con otras, entonces, rápidamente serán infinitamente inteligentes, lo que supone un riesgo para nosotros.
Debemos ser extremadamente cautelosos, dados los riesgos que potencialmente pudieran afectarnos: accidentes, utilización por usuarios malintencionados y la carrera armamentista. Además, debemos ser realistas, los sistemas de IA fallan, o en ocasiones funcionan mal, generan información errónea o nos invitan a tomar decisiones equivocadas. Pero a medida que estas capacidades crezcan y mejoren, especialmente en asuntos de seguridad y aplicaciones en el campo militar, pueden ocasionar mucho más daño: drones con ojivas balísticas que no funcionan bien, hackeos masivos, campañas de desinformación.
La superinteligencia será capaz de hacer todo aquello que hace el cerebro humano, pero mucho mejor, más eficientemente y mucho más rápido. Las capacidades humanas, el aprendizaje con base en el error y las ineficiencias de las personas serán eliminadas cuando la IA evolucione y parte de nuestra naturaleza sea suprimida por la tecnología.
En este contexto y reconociendo la evolución de la tecnología como beneficio para las personas, debemos trabajar en calcular el impacto de un nuevo escenario que podría configurarnos como un nuevo tipo de ser humano. La IA es un elemento determinante para ello: experiencias reales y concretas están incrementando las capacidades, en comparación a como nacieron, como las prótesis biónicas, implantes o trasplantes, marcapasos u otros dispositivos que nos convierte en un eslabón de esta cadena de evolución digital. Somos seres en transición hacia el siguiente paso evolutivo, “transhumanos” que usan lentes de contacto, implantes no biológicos o quienes reciben terapias con células madre o terapias de reemplazo hormonal.
Asimov sostuvo que el robot es como un hombre ideal y que, si existiese, podría confundirse fácilmente con uno de sus robots. Muchas de las conductas y problemas de los robots son idénticos o muy parecidos a las de los humanos. Por lo tanto, podría crearse uno capaz de ser funcionario público, y ya que las leyes de la robótica le impedirían dañar a un ser humano, no existirían las dictaduras ni las tiranía, la corrupción o el prejuicio. De hecho, la palabra “robot” tiene origen en el vocablo checo “robota”, que significa “servidumbre”, “trabajo forzado” o “esclavitud”, por lo que el emparentamiento entre humanos y robots se basa en los códigos ético-morales de los primeros y las leyes de los últimos.
Lamentablemente nos enfrentamos a sistemas democráticos y gobiernos en los que predominan los prejuicios que surgen de morales individuales y que colocan esa moral por encima de la razón, la IA no tiene regulación, ni control, en consecuencia, es necesario generar acuerdos sobre de qué y cómo debemos protegernos.
Especialista en riesgo tecnológico y de negocios







