¿Está la inteligencia artificial libre de caer en la ‘incoherencia’ artificial?

Los errores de la inteligencia artificial ratifican que no es infalible, pero que sigue el paso firme hacia su “perfección”.

¿Está la inteligencia artificial libre de caer en la ‘incoherencia’ artificial?

Hay quien augura que la inteligencia artificial (IA) será capaz de traducir idiomas, escribir mejor que los humanos; pintar o crear complejas composiciones musicales, o que las máquinas conducirán o realizarán operaciones quirúrgicas de altísimo riesgo mejor que las personas más cualificadas.

Sin embargo, también es válido preguntarse: ¿Está la IA libre de caer en los mismos errores que los humanos, incluso en la ‘incoherencia’ artificial? La respuesta es no. De hecho, durante los últimos años, ya se han registrado casos y se han sucedido los errores. Uno de los más sonados fue la de la aplicación que interpretó la imagen de dos personas negras como si fueran dos simios.

Capaces de aprender y de pensar, de desarrollar cualidades humanas -como la intuición o la creatividad- las máquinas aprendieron hace casi setenta años a diferenciar entre izquierda y derecha, y desde entonces se han impuesto a campeones mundiales del ajedrez o del póker, reconocen rasgos faciales o la voz, traducen de forma simultánea, conducen de manera autónoma y perfeccionan el diagnóstico médico.

La IA será uno de los mejores aliados para afrontar los principales desafíos de la humanidad, pero millones de personas -de forma consciente o no– la utilizan ya de forma cotidiana (navegación, geolocalización, computación o asistentes virtuales) y sus utilidades y aplicaciones son infinitas.

Robótica, redes neuronales, algoritmos, bases de datos inteligentes; utilidades ilimitadas y en medio de las cuales irrumpe el debate sobre la ética de esta tecnología, sobre el riesgo de que acrecienten las distintas brechas que ya existen (geográficas o generacionales) y de que las máquinas puedan llegar a ser completamente autónomas y a desobedecer o incumplir las funciones para las que fueron diseñadas.

Surgen en este contexto los laboratorios de ideas para reflexionar y debatir sobre IA, sobre la ética y sobre la importancia de que las tecnologías no queden al margen de los valores, de que las máquinas estén al servicio de las personas y no al revés y de que la sociedad perciba la IA como una oportunidad y no como una amenaza.

El presidente de We The Humans -un laboratorio de ideas independiente-, Juan Ignacio Rouyet, observó que la propia Comisión Europea propone un marco regulatorio de la IA basado en cuatro niveles: desde el riesgo “mínimo” hasta el “inaceptable”, y situó en este nivel los usos que estarían completamente prohibidos, como que un gobierno use esta tecnología para conocer mejor a un ciudadano.

En declaraciones a EFE, Rouyet apuntó que algo tan aparentemente inofensivo como un navegador puede escudriñar datos sobre la personalidad de un individuo y conocer por ejemplo si acude más a librerías o a bares, lo que afecta de una forma directa a la libertad y a la intimidad de la persona.

Y en el mismo sentido el investigador Pedro Meseguer recordó que el anonimato que existía antes se está perdiendo, pero incidió en que los “temores” hacia esta tecnología se pueden neutralizar con una legislación clara que determine un tratamiento concreto de los datos personales recogidos por estas aplicaciones y que se haga cumplir por parte de las compañías tecnológicas.