Prensa. Muy
Interesante.
En 2018, Elaine Herzberg murió en lo que se cree que
fue la primera muerte de un peatón a manos de un vehículo autónomo. Este
incidente llamó la atención del mundo y planteó preguntas sobre si podíamos
confiar en la inteligencia artificial (IA) con algo tan importante como
nuestras vidas. Pero, ¿qué significa eso para las organizaciones que buscan
explotar esta tecnología?
Muchos expertos de la industria de todo el mundo están
demandando lo que se denomina como “IA responsable”, al mismo tiempo que los
estudios que salen a la luz recogen que las organizaciones están cada vez más
preocupadas por las implicaciones de la IA. De hecho, según un estudio del
Instituto de Investigación de CapGemini el 51 por ciento de los ejecutivos
mundiales considera que es importante garantizar que los sistemas de IA sean
éticos y transparentes.
La IA, especialmente el machine learning, funciona
usando inserciones de datos, aprendiendo algo de ellos y, a partir de eso,
infiriendo conclusiones para hacer predicciones. Esto plantea la cuestión de
cómo juzgamos si una salida o conclusión de un sistema de IA es segura y si
sucumbirá o no al sesgo o causará algún daño. Esta es la clave de la ética de
la IA.
“Determinar si un resultado es éticamente aceptable
puede suscitar desacuerdos razonables. Por ejemplo, en este período de
COVID-19, los médicos, políticos y la población pueden estar en desacuerdo
sobre la ética en torno a las decisiones de atención médica, como es el
priorizar el uso de ventiladores en los jóvenes antes que en la tercera edad.
Si los humanos pueden tener dudas sobre cuál es la decisión acertada, ¿cómo
puede mejorar esto una IA?”, comenta Jorge Martínez, director regional de
OpenText en España y Portugal. Si nos centramos en el entorno empresarial, en
el que la IA se utiliza para automatizar procesos o mejorar la experiencia del
cliente, la ética puede parecer un poco menos importante. Pero, para todas las
organizaciones, el propósito principal de la IA debe ser brindar información
que mejore la toma de decisiones. Poder confiar y depender de esa información
es esencial.
Los puntos clave de la ética de la IA
Hay muchas preguntas éticas que se pueden plantear
acerca del impacto social de la IA y que afectan a todo tipo de sectores y
ámbitos, como es el uso de inteligencia artificial en la salud, los coches
autónomos o los beneficios de esta tecnología en la cadena de suministro.
Acotando las cuestiones alrededor de la ética de las soluciones de IA que se
crean dentro de cualquier entorno empresarial, OpenText hace énfasis en cuatro
puntos clave como los prejuicios o sesgos, la responsabilidad y explicabilidad,
la transparencia y, finalmente, la certeza en los datos.
El área de la ética que quizás ha recibido mayor
atención es el sesgo, cuando los modelos de datos sesgados o los prejuicios de
los desarrolladores se infiltran involuntariamente en el sistema de
inteligencia artificial, lo cual no sorprende si se considera que hay 188
sesgos cognitivos diferentes. Ya sea un prejuicio inconsciente del creador del
sistema o un sesgo integrado en el modelo de datos que éste utiliza, los
resultados serán probablemente injustos, discriminatorios o simplemente
incorrectos.
Responsabilidad y explicabilidad
Los conceptos de responsabilidad y explicabilidad se
comprenden bien en la vida cotidiana. Ser responsable de algo debería poder
explicar por qué ha sucedido como ha sucedido. Lo mismo ocurre en el mundo de
la IA. Es esencial que cualquier acción que realice la tecnología pueda
explicarse y auditarse por completo: tiene que poder rendir cuentas.
Para ser responsable, el sistema de inteligencia
artificial debe ser transparente. Sin embargo, muchas soluciones de IA adoptan
un enfoque de "caja negra" que no permite la visibilidad de los
algoritmos subyacentes. Sin embargo, la nueva generación de soluciones de IA
que adoptan el código abierto permite a las organizaciones integrar sus propios
algoritmos y comparar la calidad de los mismos con sus propios datos.
Certeza en los datos
Un punto clave en la creación de sistemas de IA es cómo
trabaja ésta con los datos, especialmente los personales, que se utilizan para
completar sus modelos. El machine learning y el deep learning requieren enormes
conjuntos de datos para aprender y mejorar. Cuantos más datos, mejores serán
los resultados a lo largo del tiempo. Sin embargo, la regulación en torno a la
privacidad, como la GDPR, impone nuevos niveles de responsabilidad a las
organizaciones sobre cómo capturan, almacenan, usan, comparten y reportan los
datos personales que poseen. Se debe saber cómo y por qué se están procesando
los datos y los riesgos involucrados.
Incluso si una organización cuenta con un equipo de
científicos de datos con experiencia, muchos de los desafíos éticos seguirán
siendo relativamente nuevos para ellos, especialmente debido a que la IA es una
tecnología que evoluciona continuada y rápidamente y está en pleno auge. Una
buena práctica para evitar caer en sesgos, ser transparentes y responsables es,
dicen en OpenText, establecer un equipo directivo que supervise el uso de la IA
a lo largo de toda la empresa, y elaborar un marco ético que describa qué se
supone que debe hacer la IA, cómo se debe generar y utilizar y cuáles son los
resultados esperados.
#noticias
#ética
#inteligencia
#artificial
#senderosdeapure
#venezuela