fbpx

«Algoritmos éticos» abordan la compleja toma de decisiones morales en IA

COMPARTE!

Un equipo interdisciplinario de investigadores ha desarrollado un plan para crear algoritmos que incorporen de manera más efectiva las pautas éticas en los programas de toma de decisiones de inteligencia artificial (IA). El proyecto se centró específicamente en las tecnologías en las que los humanos interactúan con programas de IA, como los asistentes virtuales o «carebots» utilizados en entornos de atención médica.

«Se supone que las tecnologías como los carebots ayudan a garantizar la seguridad y la comodidad de los pacientes hospitalizados, los adultos mayores y otras personas que requieren monitoreo de salud o asistencia física», dice Veljko Dubljević, autor correspondiente de un artículo sobre el trabajo y profesor asociado en el programa de Ciencia, Tecnología y Sociedad de la Universidad Estatal de Carolina del Norte. «En términos prácticos, esto significa que estas tecnologías se colocarán en situaciones en las que necesitan hacer juicios éticos».

«Por ejemplo, digamos que un carebot está en un entorno donde dos personas requieren asistencia médica. Un paciente está inconsciente pero requiere atención urgente, mientras que el segundo paciente tiene una necesidad menos urgente, pero exige que el carebot lo trate primero. ¿Cómo decide el carebot qué paciente es asistido primero? ¿Debería el carebot incluso tratar a un paciente que está inconsciente y, por lo tanto, no puede dar su consentimiento para recibir el tratamiento?»

«Los esfuerzos anteriores para incorporar la toma de decisiones éticas en los programas de IA han sido limitados en su alcance y se han centrado en el razonamiento utilitario, que descuida la complejidad de la toma de decisiones morales humanas», dice Dubljević. «Nuestro trabajo aborda esto y, aunque utilicé carebots como ejemplo, es aplicable a una amplia gama de tecnologías de trabajo en equipo de IA humana».

La toma de decisiones utilitaria se centra en los resultados y las consecuencias. Pero cuando los humanos hacen juicios morales también consideran otros dos factores.

El primer factor es la intención de una acción dada y el carácter del agente que realiza la acción. En otras palabras, ¿quién está realizando una acción determinada y qué están tratando de lograr? ¿Es benévolo o malévolo? El segundo factor es la acción misma. Por ejemplo, las personas tienden a ver ciertas acciones, como mentir, como inherentemente malas.

Y todos estos factores interactúan entre sí. Por ejemplo, podemos estar de acuerdo en que mentir es malo, pero si una enfermera le miente a un paciente haciendo demandas desagradables para priorizar el tratamiento de un segundo paciente con una necesidad más urgente, la mayoría de la gente vería esto como moralmente aceptable.

Para abordar la complejidad de la toma de decisiones morales, los investigadores desarrollaron una fórmula matemática y una serie relacionada de árboles de decisión que se pueden incorporar a los programas de IA. Estas herramientas se basan en algo llamado modelo de agente, escritura y consecuencia (ADC), que fue desarrollado por Dubljević y sus colegas para reflejar cómo las personas toman decisiones éticas complejas en el mundo real.

«Nuestro objetivo aquí era traducir el modelo ADC a un formato que haga viable su incorporación en la programación de IA», dice Dubljević. «No solo estamos diciendo que este marco ético funcionaría bien para la IA, sino que lo presentamos en un lenguaje que es accesible en un contexto de ciencias de la computación.

«Con el auge de la IA y las tecnologías robóticas, la sociedad necesita tales esfuerzos de colaboración entre éticos e ingenieros. Nuestro futuro depende de ello».


COMPARTE!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *