China publica código ético para regular la Inteligencia Artificial, ¿qué diría Isaac Asimov?
Adelantándose a Europa, China ya publicó un código ético de seis puntos para regular la Inteligencia Artificial, dando 'pleno poder de decisión' a los humanos, muy similar a las leyes de la robótica de Isaac Asimov.
El Ministerio de Ciencia y Tecnología de China publicó un código ético que pretende regular los modelos de Inteligencia Artificial (IA) existentes o en desarrollo. Con esto, el país asiático se adelanta a Europa, que ya tenía un prototipo de reglamento en el mismo sentido. Las directrices de la guía china priorizan el ‘pleno poder de decisión’ de los humanos respecto a las máquinas, muy en línea con las leyes de la robótica del escritor Isaac Asimov.
Según informa The South China Morning Post, el documento titulado Especificaciones Éticas para Inteligencias Artificiales de Nueva Generación parte de una premisa muy clara: “Asegurarse que la IA siempre esté bajo el control de los seres humanos” y que éstos tengan “pleno poder de decisión” sobre la IA.
“En última instancia, China está optando por un modelo de mano dura, donde el estado está pensando muy seriamente en las transformaciones sociales a largo plazo que traerá la IA, desde la alienación social hasta los riesgos existenciales, y tratando de gestionar y guiar activamente esas transformaciones”, dijo al mismo medio Rebecca Arcesati, analista del 'think tank' alemán Mercator Institute for China Studies. "Tienen una forma de pensar notablemente progresista", agregó.
#ElonMusk habló de las tecnologías que, según él, tienen mayor futuro. ¿Concuerdas con el millonario? https://t.co/wkiTPy0Kgm
— Entrepreneur en Español (@SoyEntrepreneur) October 4, 2021
¿Qué tiene que ver Isaac Asimov con el código ético de China para la IA?
Primera Ley. Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
- Segunda Ley. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
- Tercera Ley. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
Las directrices planteadas por Isaac Asimov tienen como objetivo proteger a los humanos en el hipotético caso de que las máquinas pudieran rebelarse y atacar a sus creadores. Si un robot, que ahora sabemos operaría con Inteligencia Artificial, intentara desobedecer estas leyes, su sistema activaría el modo de ‘autodestrucción’.
Es decir, las tres leyes de la robótica representan el código moral de una IA y están tan arraigadas en la cultura popular que probablemente fueron inspiración para la nueva normativa china.
No hay comentarios.: