DIB: principios éticos de la inteligencia artificial

Ari Olvera 18/nov/21
AI

DIB-AI-project.png

No creas que las grandes joyas tecnológicas de occidente están tan sueltas, el modelo de libre mercado (que está feneciendo, es necesario decirlo abiertamente) y la educación financierista que hemos recibido en conjunto con las noticias bursátiles y sensacionalistas relacionadas a las grandes tecnológicas, nos hacen creer que todos los entes corporativos funcionan de manera autónoma y sin injerencia del estado.


Todos los consejos de administración de las grandes compañías geoestratégicas que significan una ventaja competitiva, además de representar la seguridad nacional de la nación y así continuar en la carrera armamentista digital y recientemente hasta espacial, están vigiladas y controladas por verdaderos pesos pesados del Departamento de Defensa de los Estados Unidos, desde tenientes, generales, almirantes, ex colaboradores de alto nivel y más.


Comento lo anterior con un enfoque informativo que puedes corroborar públicamente con la información de las compañías listadas en los mercado bursátiles, quienes informan al gran público inversionista, que puede ser cualquier ser humano interesado en conocer su información financiera y sobretodo de prácticas societarias, para entender cómo está integrado el órgano supremo de cualquier compañía, el consejo de administración y sus múltiples comités, quienes de verdad dirigen la compañía y autorizan las decisiones más relevantes, tampoco creas que Mark Elliot Zuckerberg será el dueño del Metaverso o que Jack Ma Yun controla Alibaba.


Defense Innovation Board (DIB)


Si no conoces que es el DIB te invito a leer este artículo.


El 31 de octubre de 2019, el DIB publicó un documento titulado “AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense” (Principios de la Inteligencia Artificial: Recomendación para el Uso de la Inteligencia Artificial para el Departamento de Defensa), el DIB tiene la tarea de asesorar al más alto nivel al Departamento de Defensa de los Estados Unidos (en adelante DoD), respecto a temas digitales de seguridad nacional, cabe mencionar que el documento elaborado por el DIB, no expresa la opinión del DoD, si te interesa leer el informe original, puedes obtenerlo aquí:


El DIB deja muy claro que el desarrollo, implementación y mantenimiento de los sistemas de Inteligencia Artificial (en adelante AI), tienen el propósito de brindar seguridad nacional y disuadir la guerra, también recalca que el uso de la AI es dentro y fuera del campo de batalla, algo que reiteradamente afirman.


¿Por qué ética?


La AI está cambiando la manera en que nos relacionamos como sociedad, en cómo hacemos negocios e intercambios y también en cómo hacemos la guerra.


Otro de los objetivos del citado documento, es generar discusión del tema en un nuevo resurgimiento de la AI, ya que antes existía de manera teórica o limitada y actualmente como humanidad estamos desarrollando las bases necesarias para llevarla al siguiente nivel.


Otro factor relevante que precisa el DIB, es adelantarnos lo más posible a un incidente catastrófico y con graves consecuencias para la humanidad. Pienso en un incidente estilo Chernóbil, el cuál puede ser prevenido con una buena cultura de ética sobre el tema, investigación, desarrollo, pruebas y lo más importante un marco legal internacional que de verdad funcione… bueno antes de que funcione, que esté actualizado porque la tecnología avanza cada milisegundo, al contrario de la regulación, la vigilancia y sobre todo la política.


China se ha pronunciado en ser el líder de esta tecnología para el 2030, invirtiendo billones de dólares en el tema, Rusia ha probado múltiples aplicaciones de AI en simulaciones para el campo de batalla.


Como lo mencionó el teniente general Jack Shanahan, ex director del Joint AI Center, “No tengo el lujo de tomarme días y horas para tomar decisiones, la AI puede ser utilizada para hacer estas decisiones en segundos y microsegundos”


Es decir, la AI tiene el potencial para incrementar la efectividad y velocidad de los sistemas de ataque y defensa militar.


De acuerdo a las investigaciones del DIB, el tema de AI ha generado más preguntas que respuestas, acerca de los límites y de cómo debe de usarse dicha tecnología.


El DIB trabajó en el reporte a lo largo de 15 meses, recolectando comentarios del público, realizando conferencias en universidades como Standford & Georgetown, entrevistas y discusiones entre expertos del tema que van desde la academia, el sector privado, la sociedad civil, las fuerzas armadas de alto nivel, premios de investigación y desarrollo de AI, investigadores, generales retirados de 4 estrellas, abogados de derechos humanos, analistas políticos, activistas sobre el control de armas, empresarios del sector tecnológico y mas.



Definiendo la AI


La definición de AI según el DIB es “a variety of information processing techniques and technologies used to perform a goal oriented task and the means to reason in the pursuit of that task”, (diferentes técnicas y tecnologías para procesar información, utilizada para realizar una tarea específica, así como el proceso para conseguirla).


Es importante enfatizar que otros términos clave implicados al hablar de AI, es el el Machine Learning (en adelante ML), además de sistemas de AI y sistemas que dependan de la AI para funcionar, esta definición está basada en cómo se ha desarrollado la AI en los pasados 40 años, haciendo una diferencia importante entre sistemas informáticos obsoletos en uso (legacy systems) y los más actuales que utilizan ML.


El DIB aclara que la AI no es la misma cosa que la autonomía porque algunos sistemas utilizan la AI en su arquitectura de software pero no siempre es el caso, por ejemplo la Directiva 3000.09 del DoD, documenta sistemas autónomos de armas, pero ninguno de esos sistemas autónomos utiliza AI.


Un comentario muy interesante del DIB, es que la AI no es positiva ni negativa, es decisión de los humanos en determinar el avance o retroceso para hacer un mundo más seguro y próspero a partir de la AI.


El DoD sustenta sus operaciones en el marco legal de la constitución de los Estados Unidos y bajo el título 10º del Código de Los Estados Unidos, además de otras leyes aplicables como acuerdos formales nacionales como la Ley de Guerra (Law of War), manuales internos como el manual de Guerra del mismo departamento y tratados internacionales como la convención Ginebra 1949.


Por ejemplo el Manual de Guerra actualizado en 2015, refleja el trabajo del año 2012 con la Directiva 3009.09 del DoD, donde especifica cómo usar la funcionalidad de los sistemas autónomos en sistemas de armamento, si agregaran la AI a las armas, estas deberían contar con requerimientos legales existentes y dicha arma no debe causar sufrimiento innecesario, tampoco podría ser adquirida de forma indiscriminada por cualquier usuario.


El uso de la AI se daría bajo la protección de la Ley de Guerra para que los comandantes tomen decisiones de buena fe, basadas en las circunstancias del momento con la información disponible, siempre con el objetivo de reducir el riesgo de lastimar a la población civil, a otras personas protegidas, así como objetos protegidos.


Es por esta razón que el DoD ha invertido cientos de billones de dólares en la última mitad del siglo para asegurar la precisión de las armas, para proteger a los civiles y a su infraestructura en misiones militares.


El DIB comenta que a 5 décadas del lanzamiento de los primeros navíos militares nucleares, no se ha producido un solo incidente en los reactores nucleares que utilizan estos vehiculos maritimos, el objetivo es aplicar una cultura ética acerca de nuevas tecnologías como la AI y aplicar las recomendaciones realizadas por el DIB para mejorar el desarrollo y seguridad de la misma.



Principios de la AI


Principio Descripción
Responsabilidad Los humanos deben aplicar un juicio apropiado, son responsables del desarrollo y lanzamiento de las aplicaciones de AI, así como de sus consecuencias.
Equitativo Evitar tomar atajos, si esto puede disminuir el nivel de seguridad y producir daño a las personas.
Trazabilidad Los ingenieros que desarrollen AI deben poseer total conocimiento de la disciplina, así como entender el proceso de desarrollo y los métodos de operación, incluyendo metodologías auditables, transparentes, fuentes de información, procedimientos de diseño y documentación de las aplicaciones.
Confiabilidad Todos los sistemas desarrollados deben haber sido probados con efectividad, asegurando el uso a lo largo de todo el ciclo de vida del sistema.
Gobernabilidad Los sistemas de AI deben ser desarrollados para que los humanos tengan el control, puedan detectar errores y desactivar los sistemas cuando encuentren conductas no apropiadas en escalada.