Brújula ética e inteligencia artificial. Grupo Vocento. Pedro Ruiz Aldasoro
28/02/2025
Brújula ética para la Inteligencia Artificial
Voy a compartir mi experiencia de 10 años como socio fundador de una pequeña empresa dedicada a ello, junto con algunas reflexiones al respecto.
En 1955, se definió a la Inteligencia Artificial (IA) como “la ciencia y la ingeniería de crear máquinas inteligentes, especialmente programas de ordenador inteligentes”. En nuestros días permea a la economía, la medicina; es decir, a toda la sociedad. La IA es una tecnología gaseosa; de forma tal que, en muchas ocasiones, no somos conscientes de cuándo y cómo estamos conectados. Esto hace que necesite ser controlada y contenida; sin detener la investigación y materialización de los avances útiles.
Por eso, casi desde sus inicios la IA ha tenido como compañera a las consideraciones éticas, que también han tenido discontinuidades. La propuesta que presenta más consenso y eficacia es la que recoge los fundamentos empleados en la disciplina bioética, añadiendo uno específico.
El primero es el de beneficencia: promover el bienestar, preservar la dignidad y mantener el planeta. El segundo es no maleficencia: privacidad, seguridad y precaución con su potencial dañino. El tercero es autonomía de los humanos: no estar condicionados por las decisiones de los artificios. El cuarto es justicia: promover la prosperidad, preservar la solidaridad y evitar la injusticia. Es una buena solución. compartir la ética con el mundo “bio” con el mundo “artificial”. Tiene sus rasgos deontológicos y la responsabilidad precisa para avanzar en investigación y aplicación de la algoritmia ética.
Ahora vayamos a considerar el principio específico para la IA. Se llama explicabilidad: lo hace mediante dos instrumentos – transparencia y responsabilidad -.
La transparencia se refiere a la capacidad de comprender cómo funciona un sistema de IA; cómo toma decisiones y qué datos utiliza para hacerlo. Es un principio clave para generar confianza en la tecnología y evitar el uso indebido o los sesgos ocultos. La responsabilidad implica que las personas, organizaciones y gobiernos que desarrollan, implementan o utilizan sistemas de IA asuman las consecuencias de sus acciones y decisiones. Esto incluye garantizar que los sistemas sean seguros, éticos y respeten los derechos humanos. También comprende la implementación de mecanismos de control y evaluación del impacto, así como la adopción de medidas para mitigar cualquier efecto negativo.
Normalmente, las reflexiones éticas en un campo con alta tecnología, en nuestro entorno, resultan decorativas, con escasa relevancia práctica. Tienen, no obstante, relieve significativo en industrias potentes y en transformación social.
Un ejemplo que nos toca muy de cerca es el de la industria de automoción y en un país que es referente: Alemania. En 2017, Alemania se convirtió en el primer país del mundo en desarrollar un marco ético específico para los vehículos autónomos. Este marco fue elaborado por una comisión de expertos convocada por el Ministerio Federal de Transporte e Infraestructura Digital (BMVI, por sus siglas en alemán). La comisión incluyó a filósofos, ingenieros, juristas y representantes de la industria automovilística.
Las principales empresas automovilísticas alemanas, como Volkswagen, BMW, Mercedes-Benz (Daimler) y Audi, están invirtiendo fuertemente en el desarrollo de vehículos autónomos y en la integración de principios éticos en sus sistemas. Quizás sería bueno hacer algo similar aquí en todo lo relacionado con la industria de automoción para facilitar e incrementar el esfuerzo en ese mercado.
La IA ofrece un abanico de oportunidades para consolidar y mejorar las actividades de colaboración y cooperación. Veamos qué opina al respecto la propia IA. He preguntado a un Chat y me ha respondido lo siguiente: La intersección entre la ética en la inteligencia artificial (IA) y el fomento de cooperativas y colaboración empresarial abre una oportunidad única para desarrollar tecnologías más inclusivas, justas y sostenibles.
Las cooperativas, con su enfoque en la equidad y la gestión democrática, pueden liderar el uso ético de la IA para resolver problemas sociales, democratizar el acceso a la tecnología y gestionar datos de manera colectiva y responsable.
Al combinar recursos y conocimientos, las redes colaborativas pueden competir con grandes corporaciones, promover la transparencia en los algoritmos y garantizar que los beneficios de la IA se distribuyan equitativamente. Este enfoque requiere apoyo en capacitación, políticas públicas y alianzas estratégicas, pero tiene el potencial de transformar la tecnología en un motor de bienestar colectivo.
Tenemos ante nosotros interesantes oportunidades: automoción; cooperativas y colaboración empresarial. Hay futuro, hagamos las tareas del presente.
Pedro Ruiz Aldasoro
Socio fundador de Decidata y colaborador de Arizmendiarrieta Kristau Fundazioa