Por qué los humanos no podemos confiar en la IA: no sabemos cómo funciona ni qué hará
Hay mentes extrañas entre nosotros. No se trata de los hombrecitos verdes de la ciencia ficción, sino de mentes alienígenas que impulsan el reconocimiento facial de los smartphones, determinan la solvencia crediticia de las personas y hasta escriben poesía y códigos informáticos. Estas mentes alienígenas son los sistemas de inteligencia artificial (IA), los fantasmas en las máquinas con los que nos encontramos a diario.
Pero los sistemas de IA tienen una limitación importante: muchos de sus mecanismos internos son impenetrables, lo que los hace fundamentalmente inexplicables e impredecibles, y lo que también hace que el diseño de sistemas de IA que se comporten de la manera que la gente espera constituya un desafío importante.
Sí no comprendemos algo tan impredecible como la IA, ¿cómo podemos confiar en ella?
Por qué la IA es impredecible
La confianza se basa en la previsibilidad. Depende de la capacidad de las personas para anticipar el comportamiento de los demás. Si se confía en alguien y esa persona no hace lo que se espera de ella, entonces la percepción de su confiabilidad disminuye.
Muchos sistemas de IA se basan en redes neuronales de aprendizaje profundo, que de alguna manera emulan el cerebro humano. Estas redes contienen 'neuronas' interconectadas con variables o 'parámetros' que afectan la fuerza de las conexiones entre las 'neuronas'. Cuando a una red se le presentan datos de entrenamiento, 'aprende' a clasificar los datos ajustando estos parámetros. De esta forma, el sistema de IA aprende a clasificar datos que no ha visto antes. No memoriza cada punto de datos sino que predice cuál podría ser tal punto de datos.
Muchos de los sistemas de IA más potentes contienen billones de parámetros. Debido a esto, las razones por las que los sistemas de IA toman las decisiones que toman pocas veces son claras, lo que constituye el problema de la explicabilidad de la IA: la impenetrable caja negra de la toma de decisiones de la IA.
Considere una variación del 'problema del tranvía'. Imagina que eres un pasajero en un vehículo autónomo controlado por IA cuando un niño pequeño se atraviesa en la calle. La IA debe decidir si atropella al niño o se desvía y choca hiriendo a sus pasajeros. Esta elección sería difícil para un humano, pero un humano tiene el beneficio de poder explicar su decisión y su racionalización estará moldeada por normas éticas, las percepciones de los demás y el comportamiento esperado que respalda la confianza.
Pero la IA no puede racionalizar su toma de decisiones. No se puede mirar debajo del capó del vehículo autónomo sus billones de parámetros para explicar por qué tomó la decisión que tomó. La IA no cumple con el requisito predictivo de confianza.
Comportamiento de la IA y expectativas humanas
La confianza no sólo se basa en la previsibilidad, sino también en motivaciones normativas o éticas. Por lo general, espera que las personas actúen no sólo como usted supone que lo harán, sino también como deberían. Los valores humanos están influenciados por la experiencia común y el razonamiento moral es un proceso dinámico, moldeado por estándares éticos y percepciones de los demás.
A diferencia de los humanos, la IA no ajusta su comportamiento en función de cómo la perciben los demás ni a su adherencia a normas éticas. La representación interna del mundo de la IA es en gran medida estática, determinada por sus datos de entrenamiento. Su proceso de toma de decisiones se basa en un modelo inmutable del mundo, imperturbable por las interacciones sociales dinámicas y matizadas que influyen constantemente en el comportamiento humano. Los investigadores están trabajando en programar la IA para incluir la ética, pero eso está resultando todo un desafío.
El escenario del vehículo autónomo ilustra esta cuestión. ¿Cómo se puede garantizar que la IA del automóvil tome decisiones que se alineen con las expectativas humanas? Por ejemplo, el auto podría decidir que atropellar al niño es el curso de acción óptimo, algo que la mayoría de los conductores humanos evitarían instintivamente. Este es el problema de alineación de la IA y es otra fuente de incertidumbre que erige barreras a la confianza.
Sistemas críticos y la confiabilidad de la IA
Una forma de reducir la incertidumbre y aumentar la confianza en la IA es garantizar que las personas participen en las decisiones que toman los sistemas. Este es el enfoque adoptado por el Departamento de Defensa de Estados Unidos, que exige que para toda toma de decisiones de IA, un ser humano debe participar en, o estar enterado de, la toma de decisión del sistema. En el primer caso el sistema de IA hace una recomendación, pero se requiere que un humano inicie una acción. En el segundo caso el sistema de IA puede iniciar una acción por sí mismo, pero un monitor humano puede interrumpirla o alterarla.
Si bien mantener a los seres humanos involucrados es un gran primer paso, no estoy convencido de que sea sostenible a largo plazo. A medida que las empresas y los gobiernos sigan adoptando la IA, es probable que el futuro incluya sistemas de IA anidados, donde la rápida toma de decisiones limita las oportunidades de intervención de las personas. Es importante resolver los problemas de explicabilidad y alineación antes de que se alcance el punto crítico en el que la intervención humana se vuelva imposible. En ese momento, no habrá otra opción que confiar en la IA.
Evitar ese umbral es especialmente importante porque la IA se integra cada vez más en sistemas críticos, que incluyen elementos como las redes eléctricas, internet y los sistemas militares. En los sistemas críticos, la confianza es primordial y un comportamiento indeseable podría tener consecuencias mortales. A medida que la integración de la IA se vuelve más compleja, resulta aún más importante resolver los problemas que limitan la confiabilidad.
¿Podrá la gente confiar alguna vez en la IA?
La IA es extraña: un sistema inteligente del que la gente tiene poca idea. Los humanos somos en gran medida predecibles para otros humanos porque compartimos la misma experiencia humana, pero esto no se extiende a la inteligencia artificial, a pesar de haber sido creada por humanos.
Si la confiabilidad tiene elementos inherentemente predecibles y normativos, la IA fundamentalmente carece de las cualidades que la harían digna de confianza. Solo queda esperar que más investigaciones en esta área arrojen luz sobre este tema, garantizando que los sistemas de IA del futuro sean dignos de nuestra confianza.
* Mark Bailey es miembro de la facultad y presidente, de ciberinteligencia y ciencia de datos de la National Intelligence University.
Este artículo fue publicado originalmente en The Conversation. Lea el original.