La Inteligencia Artificial(IA) es una herramienta tan poderosa que puede potencializar las mejores y peores prácticas sociales y culturales de los seres humanos. Incluso, reforzar prejuicios discriminatorios, racistas, oportunidades desigual, fortalecimiento de roles de género, entre otros. Generar confianza en IA es fundamental para replantearnos la relación de la sociedad con la tecnología, pero esta relación depende del sentido ético y responsable detrás de quién y para qué lo esté desarrollando.
Durante los últimos años algunas instituciones han sumando esfuerzos en la importancia de confiar en los sistema de IA, un ejemplo de ello, es el libro blanco de la Inteligencia Artificial de la Unión Europea, un enfoque coordinado en torno a las implicaciones éticas y humanas de la IA basado en la regulación y en la inversión, y dirigido a asegurar un ecosistema de excelencia y de confianza. Desde el Libro Blanco, se aboga por una nueva legislación sobre la IA que debe adaptarse a los riesgos potenciales, como la opacidad en la toma de decisiones, la discriminación de género o de otro tipo, la intromisión en nuestras vidas privadas o su uso con fines delictivos.
Otras organizaciones han puesto a discusión que los sistemas de IA deben ser diseñados para la rendición de cuentas, es decir, la transparencia en los procesos. Un ejemplo de ello, es que a las corporaciones les quede claro por qué un sistema de IA tomó la decisión de que una persona blanca, obtuviera un financiamiento y la persona de color no. Sin embargo, también es cierto que existe una idea errónea sobre la transparencia y la confianza.
La transparencia significa permitir que las personas comprendan cómo se investigan, diseñan, desarrollan, despliegan y utilizan los sistemas de IA, de manera adecuada al contexto de utilización y a la sensibilidad del sistema en cuestión. También puede incluir la comprensión de los factores que influyen en una predicción o decisión específicas, pero no suele incluir el intercambio de códigos o conjuntos de datos específicos. En este sentido, la transparencia es una cuestión sociotécnica, cuyo objetivo es ganar la confianza de los seres humanos en los sistemas de IA. (UNESCO 2020)
La propuesta de los expertos es que los sistemas de IA deberían ser fiables. La fiabilidad es un concepto sociotécnico que implica que la investigación, el diseño, el desarrollo, el despliegue y la utilización de los sistemas de IA deberían inspirar, en lugar de vulnerar, la confianza entre las personas y en las máquinas (UNESCO 2020). El mito más sobresaliente es que, cuando se mejora la transparencia, se aumenta la confianza. Sin embargo, cuando se mejora la transparencia, no precisamente se mejora la confianza. De hecho, es todo lo contrario. Cuando un sistema de IA se diseña para la transparencia, se renuncia a la confianza (Botsman, 2020) y se reemplaza mediante el control.
Pongamos en contexto a la pregunta: ¿Cómo se puede confiar en un ser humano que no conoces? Solo porque dice, confía en mí, ¿Es eso confianza?, ¿Cómo saber que puedes depositar tu confianza en alguien que apenas conoces? La confianza es un esfuerzo y debe ganarse demostrando un comportamiento digno de confianza (Botsman, 2020). Además que la esperanza no es una estrategia y no se puede dar por hecho que un sistema de IA decida ser confiable. La confianza como actitud es tan importante como la fiabilidad como propiedad y ambos influyen en cómo usamos la tecnología. Además que esta es una variable importante al investigar cómo las personas interactúan, usan y dependen de la tecnología.
Generar confianza entre seres humanos depende de algunas variables como son los valores, la integridad y la generosidad. Sin embargo, la fiabilidad en los procesos de IA depende mucho más de otras variables totalmente diferentes como son el rendimiento, el propósito y el tipo de proceso. Por supuesto, siguen existiendo inconsistencias sobre las definiciones exactas de confianza y fiabilidad, la distinción entre dependencia y cómo la confianza interpersonal se traduce en confianza en la automatización.
La terminología entre los términos de fiabilidad puede ser un poco confusa entre los investigadores y desarrolladores de IA. La confusión sobre terminologías (confianza, seguridad, honradez) prevalece e impide el progreso. ¿Cómo podemos fortalecer la confianza en las personas que están construyendo IA? Para eso primero hay que entender qué es la confianza y está, en las relaciones interpersonales es un mecanismo de ayuda para los seres humanos de afrontar y lidiar con situaciones como el riesgo y la incertidumbre. Sin embargo, en el caso de la tecnología cómo sucede esto. Bien, por ejemplo, se puede confiar en que una empresa de ecommerce entregue un paquete con las cosas que ordene en línea, en buenas condiciones, en el tiempo establecido, pero no confío en que respete la privacidad y el manejo de los datos personales. La generalización de la confianza y el uso tan vago de la terminología son polos opuestos.
La confianza que se establece en los sistemas de IA está mediada por la confianza en los diseñadores del producto, que a su vez deben poseer propiedades confiables. Pero otra variable aquí es cómo se puede medir la confianza, y cómo se logra con efectividad. La confianza es fundamental porque media la dependencia de la automatización y la IA, además que los usuarios deben ser escépticos y encontrar el nivel adecuado de confianza para usar la tecnología de manera adecuada y evitar la dependencia excesiva o insuficiente. Pero para ello, es necesario acercar más la tecnología a la sociedad y no exista la barrera de la falta de entendimiento. El desconocimiento genera miedo, incertidumbre y escepticismo, es importante cambiar el tono y la voz en cómo hablamos de la IA, porque como usuarios para generar confianza con la tecnología tenemos que tener una relación más estrecha.
Y por último las personas que desarrollan IA y las corporaciones que ofrecen soluciones de tecnología deben ganarse la confianza del usuario demostrando confiabilidad en su uso y aplicación de no dañar, perjudicar, o violar los derechos y la integridad humana. La IA como herramienta podrá ir tan lejos como nosotros se lo permitamos, nuestros sesgos implícitos pueden surgir y ser amplificados por la IA, si no se trabaja de manera proactiva para identificar y prevenirlo, es por ello, que debemos manejar esta tecnología con el debido cuidado y responsabilidad.
Comments