Un estudio realizado por un profesor de la Universidad de Florida Central identificó seis desafíos que deben superarse para mejorar nuestra relación con la inteligencia artificial (IA) y garantizar su uso ético y justo.
Un profesor de la Universidad de Florida Central y otros 26 científicos publicaron un estudio que destaca los obstáculos que la humanidad debe enfrentar para garantizar que la inteligencia artificial (IA) sea confiable, segura y esté en línea con los valores humanos.
El estudio fue publicado en el International Journal of Human-Computer Interaction.
Ozlem Garibay, profesor asistente en el Departamento de Ingeniería Industrial y Sistemas de Gestión de la UCF, fue el investigador principal del estudio. Según Garibay, si bien la tecnología de IA se ha vuelto cada vez más frecuente en varios aspectos de nuestras vidas, también ha presentado una gran cantidad de desafíos que deben analizarse.
Por ejemplo, la futura integración generalizada de la inteligencia artificial podría impactar significativamente la vida humana en formas que aún no se entienden completamente, dice Garibay, quien trabaja en aplicaciones de IA en el diseño y descubrimiento de materiales y fármacos, y cómo la IA afecta los sistemas sociales.
Los seis desafíos que identificaron Garibay y el equipo de investigadores son:
- Desafío 1, Bienestar humano: la IA debe ser capaz de descubrir oportunidades de implementación para beneficiar el bienestar humano. También se debe considerar apoyar el bienestar del usuario cuando interactúa con la IA.
- Desafío 2, Responsable: La IA responsable se refiere al concepto de priorizar el bienestar humano y social a lo largo del ciclo de vida de la IA. Esto garantiza que los beneficios potenciales de la IA se aprovechen de una manera que se alinee con los valores y prioridades humanos, al tiempo que reduce el riesgo de consecuencias no deseadas o violaciones éticas.
- Desafío 3, Privacidad: la recopilación, el uso y la difusión de datos en los sistemas de IA deben considerarse cuidadosamente para garantizar que se proteja la privacidad de las personas y evitar el uso dañino contra personas o grupos.
- Desafío 4, Diseño: Los principios de diseño centrados en el ser humano para los sistemas de IA deben utilizar un marco que pueda informar a los profesionales. Este marco distinguiría entre IA con riesgo extremadamente bajo, IA sin necesidad de medidas especiales, IA con riesgos extremadamente altos e IA que no debería permitirse.
- Desafío 5, Gobernanza y supervisión: se necesita una estructura de gobernanza que considere todo el ciclo de vida de la IA, desde la concepción hasta el desarrollo y la implementación.
- Desafío 6, interacción humano-IA: Para promover una relación ética y equitativa entre los humanos y los sistemas de IA, es imperativo que las interacciones se basen en el principio fundamental de respetar las capacidades cognitivas de los humanos. Específicamente, los humanos deben conservar el control total y la responsabilidad del comportamiento y los resultados de los sistemas de IA.
El estudio, realizado durante 20 meses, comprende las opiniones de 26 expertos internacionales con diversos antecedentes en tecnología de IA.
“Estos desafíos exigen la creación de tecnologías de inteligencia artificial centradas en el ser humano que prioricen la ética, la justicia y la mejora del bienestar humano”, dice Garibay. «Los desafíos exigen adoptar un enfoque centrado en el ser humano que incluya un diseño responsable, proteger la privacidad, adherirse a los principios del diseño centrado en el ser humano, una gobernanza y supervisión adecuadas, y una interacción respetuosa con las capacidades cognitivas humanas».
En general, estos desafíos son un llamado a la acción para que la comunidad científica desarrolle e implemente tecnologías de inteligencia artificial que prioricen y beneficien a la humanidad, dice.
Referencia: «Seis grandes desafíos de la inteligencia artificial centrada en el ser humano» por Ozlem Ozmen Garibay, Brent Winslow, Salvatore Andolina, Margherita Antona, Anja Bodenschatz, Constantinos Coursaris, Gregory Falco, Stephen M. Fiore, Ivan Garibay, Keri Grieman, John C. Havens , Marina Jirotka, Hernisa Kacorri, Waldemar Karwowski, Joe Kider, Joseph Konstan, Sean Koon, Monica Lopez-Gonzalez, Iliana Maifeld-Caruccig, Sean McGregor, Gavriel Salvendy, Ben Shneiderman, Constantine Stephanidis, Christina Strobel, Carolyn Ten Holter y Wei Xu , 2 de enero de 2023, International Journal of Human-Computer Interaction.
DOI: 10.1080/10447318.2022.2153320
El grupo de 26 expertos incluye miembros de la Academia Nacional de Ingeniería e investigadores de América del Norte, Europa y Asia con amplia experiencia en la academia, la industria y el gobierno. El grupo también tiene antecedentes educativos diversos en áreas que van desde informática e ingeniería hasta psicología y medicina.
Su trabajo también se presentará en un capítulo del libro Human-Computer Interaction: Foundations, Methods, Technologies, and Applications.