La inteligencia artificial es una tecnología retro. Arranca tras la Segunda Guerra Mundial, y el término se acuñó en 1956 por John McCarthy en el Dartmouth College de New Hampshire (EE.UU.), donde sus participantes debatieron sobre la posibilidad de simular la inteligencia humana mediante máquinas. Más modernamente, en 1997 el ordenador Deep Blue de IBM derrotó al campeón del mundo de ajedrez Gary Kasparov.
Hoy el mundo asiste a su auge gracias a la reducción de los costos del hardware, las capacidades del big data o la nube, y a la llamada artificial intelligence as a service (AIaaS), que permite a los desarrolladores de software utilizar componentes, por ejemplo, de IBM, Google o Microsoft, en vez de tener que programar desde cero todos los aspectos de la aplicación. La inteligencia artificial está presente gradualmente en todas partes: en los dispositivos domésticos del Internet de las Cosas, en los servicios y plataformas digitales, en los robots, en las calles de las smart cities, en las oficinas, en las fábricas, en los hospitales, entre otros.
Naturalmente, el mundo jurídico no iba a quedar al margen. Sin embargo, por el momento las compañías tecnológicas se ocupan en exclusiva del desarrollo ético y jurídico de la inteligencia artificial. En un intento de ayudar a dar forma al futuro de la inteligencia artificial, seis grandes empresas tecnológicas -Amazon, Apple, Google, Facebook, IBM y Microsoft- constituyeron la Asociación para la IA, en beneficio de las personas y la sociedad con el fin de estudiar y formular las mejores prácticas sobre este estándar.
El sector privado está tomando el liderazgo en cuanto a la regulación de la inteligencia artificial. Pero también es imprescindible que los Estados garanticen el cumplimiento del derecho. ¿Por qué se necesita una regulación jurídica? No está del todo claro quién debe ser considerado responsable si la inteligencia artificial causa daños, por ejemplo, en un accidente con un carro autónomo o por una incorrecta aplicación de un algoritmo: el diseñador original, el fabricante, el propietario, el usuario, ¿quién?.
También se discute si debe reconocerse una personalidad electrónica autónoma para los sistemas más avanzados, que les atribuya directamente derechos y obligaciones. Igualmente se plantean dilemas morales acerca de cómo la inteligencia artificial debe tomar determinadas decisiones, e incluso si existirían decisiones en las que no debería tener la última palabra.
La inteligencia artificial ya tiene la capacidad de adoptar decisiones difíciles que hasta ahora se han basado en la intuición humana o en leyes y prácticas de los tribunales. Tales decisiones van desde cuestiones de vida o muerte, como la utilización de los robots asesinos autónomos en los ejércitos, hasta asuntos de importancia económica y social, como la forma de evitar los sesgos algorítmicos cuando la inteligencia artificial decide si se debe otorgar una beca a un estudiante o cuándo se le concede la libertad condicional a un preso.
Si un ser humano tomara estas decisiones, estaría sujeto a una norma legal y tiene que acompañarla de la motivación jurídica, es decir, explicar la fundamentación de su decisión. No existen tales reglas en el momento presente para con la inteligencia artificial, en ningún lado del mundo.
La lista de miembros de la Asociación para la Inteligencia Artificial incluye ahora a organizaciones sin fines de lucro como la Unión Americana de Libertades Civiles, Human Rights Watch y UNICEF. Sin embargo, tan sólo cuenta con representantes de trece países de todo el mundo.
Ahora bien, los marcos éticos difieren notablemente de los jurídicos, que son los que únicamente pueden elaborar los legisladores. Las reglas jurídicas acarrean responsabilidad, sanciones, multas o incluso penas de prisión. Por el momento, los Estados siguen intentando alcanzar a Silicon Valley en lo que respecta a la regulación de la inteligencia artificial; cuanto más tiempo esperen, más difícil será encauzar adecuadamente el futuro.
En el Reino Unido existe un Comité de la Cámara de los Lores sobre Inteligencia Artificial y la Comisión Europea ha puesto en marcha un grupo de expertos para debatir sobre los desafíos que plantea el desarrollo de esta tecnología y su impacto en los derechos fundamentales.
Es una tarea difícil, pero no imposible. A nivel nacional, los Estados ya supervisan muchas otras tecnologías complejas, incluyendo la energía nuclear o la clonación. A nivel internacional, la Agencia Europea de Medicamentos (EMA) establece normas farmacéuticas para 28 países, y la ICANN (de Estados Unidos) regula partes clave de todo Internet.
Ahora bien, la autorregulación no basta. Si las normas son sólo voluntarias, algunas compañías de tecnología decidirán no atenerse a las reglas que no les benefician, dando a algunas organizaciones ventajas sobre otras.
Además, sin un marco unificado, un exceso de comités de ética privados también podría conducir a la existencia de demasiados conjuntos de normas. Sería caótico y peligroso que cada gran empresa tuviera su propio código, al igual que si cada ciudadano privado pudiera establecer sus propios estatutos legales.
Sólo los Estados tienen el poder y el mandato de asegurar un sistema justo que imponga este tipo de adhesión en todos los ámbitos.
Por Revista Mercado