Investigadores del Reino Unido y Suiza han encontrado una fórmula matemática para ayudar a los reguladores y a los policías de los sistemas de Inteligencia Artificial a que no se tomen decisiones poco éticas, sesgadas y potencialmente muy costosas y perjudiciales.
Los colaboradores de la Universidad de Warwick, el Imperial College de Londres y EPFL – Lausana, junto con la firma de estrategia Sciteb Ltd, creen que en un entorno en el que las decisiones se toman cada vez más sin intervención humana, existe una motivación muy fuerte para saber bajo qué circunstancias, los sistemas de inteligencia artificial podrían adoptar una estrategia poco ética, y para encontrar y reducir ese riesgo, o eliminarlo por completo, si es posible.
La inteligencia artificial (IA) se implementa cada vez más en situaciones comerciales. Consideremos, por ejemplo, IA para establecer los precios de los productos de seguros que se venderán a un cliente en particular.
Existen razones legítimas para establecer diferentes precios para diferentes personas, pero también puede ser más rentable tomar ciertas decisiones que terminan perjudicando a la empresa.
La IA tiene una gran cantidad de potenciales estrategias para elegir, pero algunas no son éticas y tendrían no sólo un costo moral sino una penalización significativa si los reguladores imponen fuertes multas o los clientes lo boicotean, o ambos.
Es por eso que estos matemáticos y estadísticos se unieron: para ayudar a las empresas y los reguladores creando un nuevo “Principio de optimización poco ético” que proporcionaría una fórmula simple para estimar el impacto de las decisiones de IA.
RELACIONADO: Un Hombre Ciego Desarrolla un Bastón Inteligente que Usa Google Maps y Sensores para Identificar los Alrededores
Tal como está ahora, “se puede esperar que la optimización elija desproporcionadamente muchas estrategias poco éticas”, dijo el profesor Robert MacKay, del Instituto de Matemáticas de la Universidad de Warwick.
“El Principio también sugiere que puede ser necesario repensar la forma en que la IA opera en espacios estratégicos muy grandes, de modo que los resultados poco éticos se rechacen explícitamente en el proceso de optimización/aprendizaje”.
Han presentado todos los detalles en un documento con el nombre “Un principio de optimización poco ético”, publicado en Royal Society Open Science el miércoles 1 de julio de 2020.
Nuestro sugerido “Principio de optimización poco ético” se puede utilizar para ayudar a los reguladores, el personal de cumplimiento y otros a encontrar estrategias problemáticas que puedan estar ocultas”, dijo MacKay. “La inspección debería mostrar dónde es probable que surjan los problemas y, por lo tanto, sugerir cómo se debe modificar el algoritmo de búsqueda de IA para evitarlos en el futuro”.
Reimpreso de Warwick College
Asegúrate de que Estos Avances Tecnológicos Tengan Más Alcance al Compartirlos con tu Comunidad en Redes Sociales…
– Traducido al español por Aletheia Jurado