Desarrollando principios éticos en IA
Published on 26 Feb 2022
La IA está cambiando la forma en que las universidades enseñan y el personal docente lleva a cabo investigaciones. Sin embargo, existen algunos desafíos críticos en torno al uso de la IA en la educación.
Entre ellos se encuentran cuestiones relacionadas con la privacidad a la hora de recopilar volúmenes significativos de datos sobre las competencias de los estudiantes. También existe la posibilidad de sesgo, tanto consciente como inconsciente, que podría tener una influencia perjudicial en los resultados, etc. También existen preocupaciones con respecto a la calidad de los datos que se utilizan; los datos medidos de forma imprecisa o inventados podrían arrojar resultados erróneos y crear una plataforma de toma de decisiones riesgosa.
Consulte también: VMware Cloud On AWS para aplicaciones de misión crítica
Tanto el aprendizaje supervisado como el no supervisado tienen sus inconvenientes. Según una investigación del Parlamento Europeo, el conjunto de datos de entrenamiento para el aprendizaje supervisado debe ser auténticamente representativo del trabajo en cuestión; de lo contrario, la IA demostraría sesgo. Los modelos de aprendizaje no supervisado son prometedores, pero son computacionalmente difíciles y requieren la participación de personas cualificadas para modificar y evaluar el resultado.
Muchos modelos de aprendizaje automático en el ámbito educativo se construyen a partir de datos generados por humanos. Sin embargo, estos modelos solo pueden anticipar lo que se les ha enseñado a predecir.
Los sesgos humanos en los datos de entrenamiento pueden derivar fácilmente en sesgos computacionales si los desarrolladores no los detectan y corrigen. La ética de la IA establece estándares morales y marcos de gobernanza para guiar el desarrollo de la IA y su aplicación adecuada.
A continuación se presentan cinco aspectos a tener en cuenta al implementar la IA en programas académicos:
- Dado que los marcos de trabajo descritos anteriormente aún están en desarrollo, las instituciones académicas deben formar un consejo de ética de la IA para mantener el control de los programas de IA y generar confianza en las herramientas de IA entre las partes interesadas internas y externas. El comité puede desarrollar una hoja de ruta de la IA y destacar las opciones cruciales que se deben tomar, por ejemplo, qué tipo de conocimiento se requiere y qué gobernanza y estándares se deben establecer.
- Es fundamental crear marcos éticos y de gobernanza explícitos para garantizar que las soluciones de IA cumplan con estándares regulatorios como el RGPD.
- Según McKinsey, la IA puede ayudar a reducir los prejuicios, pero también puede incorporar y aumentar los sesgos. Según la consultora de gestión, la principal causa del problema es la calidad de los datos subyacentes, más que los algoritmos. El preprocesamiento de los datos es un paso importante no solo para mantener la mayor precisión posible, sino también para eliminar los sesgos y los datos no óptimos.
- La eficacia de la IA depende de la calidad de los datos que se procesan. Es necesario asegurarse de que no haya fugas de datos en las operaciones que los contaminen. Los datos también deben estar completos, sin discrepancias, o los resultados serían erróneos o inadecuados.
- Cree infraestructura y capacidades analíticas desde el principio. Se requiere una gran cantidad de datos para alimentar la IA y construir algoritmos de aprendizaje automático.
Descargue para leer el informe técnico completo de Orange Business Services para conocer la importancia de desarrollar principios éticos en la inteligencia artificial (IA).