La inteligencia artificial (IA), la gran tecnología disruptiva del siglo XXI, está transformando de manera significativa muchos aspectos de la vida humana. De hecho, ha dejado de ser una herramienta de interés exclusivo de expertos en ciencias de la computación, matemáticas y estadística. Poco a poco ha sacado de su zona de confort a abogados, psicólogos, médicos, comunicólogos, sociólogos y un larguísimo etcétera de personas que han visto el enorme reto que implica entender, desde sus respectivos campos de acción, esto que Klaus Schwab ha llamado la Cuarta Revolución Industrial.
Encaramos las dos alternativas presentes en el descubrimiento e implementación de una tecnología nueva: o bien, que se produzcan mejoras sustanciales de la calidad de vida de los seres humanos en general, o que los beneficios sean para unos cuantos, en detrimento del resto. Los dilemas éticos no son menores porque los escenarios involucran brechas de desigualdad y derechos fundamentales que impactarán en el destino de la especie humana.
Quienes estudiamos a la IA desde la perspectiva legal tenemos como principal preocupación que se ajuste a principios éticos orientados a los derechos humanos. Los valores que están en juego son la libertad de expresión, la privacidad, la protección de nuestros datos, la no discriminación, el debido proceso, la seguridad y los valores democráticos. El reto es proponer mecanismos para alinear a la IA con los objetivos y finalidades más virtuosos del ser humano.
Desde la perspectiva legal, la meta es definir cómo regular los usos y aplicaciones de la inteligencia artificial. El problema es que el desarrollo de estas tecnologías tiene lugar principalmente fuera de nuestras fronteras. Así es que, si no queremos ser observadores pasivos que se limitan a adoptar la regulación de la IA generada en los países desarrollados, debemos incidir en la creación de un marco regulatorio global que conduzca a una IA confiable y que, asimismo, haga posible contar con una regulación local eficaz en la materia.
Sin embargo, este reto no puede quedar exclusivamente en manos de los poderes del Estado. Se requiere un marco integral, sumando esfuerzos entre el gobierno, la sociedad civil, la academia y la iniciativa privada, es decir, todos los que utilizan o desarrollan esta tecnología.
Vale la pena aclarar que, si bien actualmente México no es un referente a nivel internacional en el tema, sí fue uno de los primeros países en alzar la voz respecto a la necesidad de atender y dimensionar la relevancia de la inteligencia artificial para la humanidad. A finales de 2017 y en 2018 (hace una eternidad para la velocidad con la que evolucionan estos temas), México presentó las resoluciones 72/242 y 73/17 ante la Organización de las Naciones Unidas (ONU). Con ello se dio inicio al debate internacional sobre el impacto global de nuevas tecnologías como la inteligencia artificial. Fue un primer llamado formal a los países miembros para que promovieran la formulación de estrategias nacionales y políticas públicas en estos temas. Luis Videgaray, el entonces canciller mexicano, advirtió en su discurso ante la Asamblea General de las Naciones Unidas que el debate sobre las nuevas tecnologías era uno de los principales desafíos de nuestro tiempo y que la aparición de la inteligencia artificial conlleva retos existenciales para la humanidad.
En ese contexto, en marzo de 2018 se publicó el informe “Hacia una Estrategia de IA en México: aprovechando la revolución de la IA”, elaborado por expertos ingleses y mexicanos con la colaboración del gobierno. Este documento constituyó el punto de partida para el diseño de una estrategia nacional mexicana en IA que, desgraciadamente, no tuvo continuidad después del cambio de gobierno federal.
En 2019, México, en su carácter de país miembro de la Organización para la Cooperación y el Desarrollo Económico (OCDE), adoptó los “Principios sobre Inteligencia Artificial”, estándares internacionales que buscan asegurar que los sistemas de IA sean seguros, robustos, justos y confiables. En este caso se trata de lo que se conoce como soft law, que son principios éticos o recomendaciones no vinculantes, suscritos por países en lo individual o como integrantes de diversos organismos internacionales. En el mismo sentido, a finales de 2021, los países miembros de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) suscribieron la “Norma mundial sobre la ética de la inteligencia artificial” que debe servir como sustento a la regulación jurídica en la materia.
Algunos países ya han dado pasos en esa dirección. En los EE. UU., por ejemplo, la Federal Trade Commission, emitió los “Lineamientos para el uso de la inteligencia artificial”, que incluyen recomendaciones sobre la privacidad, la transparencia y la responsabilidad en el desarrollo y uso de la IA. En China, por su parte, el Ministerio de Ciencia y Tecnología formuló en 2021 las “Especificaciones Técnicas para la Nueva Generación de Inteligencia Artificial”, que debe servir como guía ética para el despliegue futuro de la IA.
A pesar de todos estos avances, todavía no existen regulaciones de tipo hard law (vinculantes). Si acaso, hay algunas normas que regulan aspectos de la materia en forma indirecta. Por ejemplo, el Reglamento General de Protección de Datos (RGPD) de la Unión Europea. La propia Unión ha realizado el primero y único esfuerzo a nivel internacional para contar con un marco legal vinculante que regule de manera integral a la inteligencia artificial. En abril de 2021 se publicó la propuesta llamada AI Act que, de ser aprobada, instituirá el primer marco normativo de su tipo a nivel mundial. Se espera que su análisis y discusión concluya a fines de 2023 para iniciar el complejo proceso legislativo europeo de unificación de versiones entre el Parlamento Europeo y el Consejo de la Unión Europea. Su eventual aprobación sería un hito con muchas repercusiones. Por lo pronto, por ejemplo, las compañías estadounidenses y chinas se verían obligadas a cumplir con los estándares fijados por la Unión Europea para que sus productos de inteligencia artificial puedan acceder al relevante mercado europeo con más de 450 millones de consumidores.
En suma: somos de la opinión que nos encontramos ante el desafío más complejo y trascendente en la historia del derecho moderno. Sin exagerar.
RECUADRO
Los dilemas éticos no son menores; involucran brechas de desigualdad y derechos fundamentales.
Valores que están en juego: la libertad de expresión, la privacidad, la protección de nuestros datos, la no discriminación.