¿Quién confía en la inteligencia artificial?

Los controles sobre su evolución, la responsabilidad por su accionar y la definición de inteligencia, una discusión que sigue

La proliferación de software basado en inteligencia artificial y de robots cada vez más sofisticados que pueden “aprender” están avanzando en el campo laboral hasta el punto que muchos humanos podrían perder sus puestos de trabajo en el corto plazo (aunque luego cree otros). En este sentido, uno de los casos más grandilocuentes es el del fabricante de equipos electrónicos Foxconn, que en mayo de este año anunció que iba a reemplazar a 60 mil trabajadores por robots. Otro ejemplo: los chatbots, que son programas que simulan mantener “conversaciones” con humanos de manera natural e intuitiva a través del chat, ya son una realidad la Argentina y podrían ocupar los puestos de muchos agentes de atención al cliente.

Quién controla a la Inteligencia Artificial

En este contexto, y dado el avance vertiginoso que se evidencia en este campo, muchos reflexionan acerca de la probabilidad de que las máquinas se vuelvan incontrolables y su creación sea contraproducente para la especie humana.

Fruto de esta problemática, investigadores de la matriz de Google, Alphabet, y los de Amazon, Facebook, IBM y Microsoft, todas corporaciones que están desarrollando soluciones basadas en IA, analizaron el impacto de sus desarrollos en el empleo, la salud y hasta la guerra. Estas firmas sellaron un acuerdo, denominado Partnership on AI, para trabajar de manera coordinada. “Creemos que una aproximación conjunta es la clave para identificar los retos y abrir las oportunidades para que la IA tenga un impacto positivo en la sociedad. El objetivo de la alianza es compartir mejores prácticas y desarrollar investigaciones abiertas sobre la ética, la equidad y la transparencia en el desarrollo de estas tecnologías”, explicó   Marco Lauria, vicepresidente de soluciones cognitivas en IBM.

Por otra parte, en julio del año pasado, científicos y empresarios como el cofundador de Apple Steve Wozniak, el fundador de Microsoft Bill Gates, el físico Stephen Hawking, el fundador de Tesla, Elon Musk y el lingüista Noam Chomsky, entre otros, redactaron un documento para pedir que se regule la IA. En esta línea, la Universidad de Standford retomó el tema en septiembre de 2016. A través del documento Estudio de cien años de Inteligencia Artificial , se plantea un plan para revisar cada lustro durante los próximos 100 años con el fin de analizar su impacto en la sociedad. Una afirmación interesante del informe es que no se puede regular la IA porque “no existe ningún motivo de preocupación que amenace para la humanidad”.

Controversias sobre el concepto de “inteligencia”

David Deutch, un físico de la Universidad de Oxford, Inglaterra, y miembro de la Royal Society, pionero en el campo de la computación cuántica al ser la primera persona en formular un algoritmo cuántico, y uno de los formuladores de la teoría de los universos paralelos dentro de la mecánica cuántica, opinó: “La inteligencia es una sola y es universal, esto significa que las soluciones de IA podrían ser tan inteligentes como la de los humanos. Al mismo tiempo, a medida que ésta avance, la inteligencia de los hombres también irá desarrollándose”.

Sin embargo, el investigador del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la Universidad Nacional Autónoma de México (UNAM), Carlos Gershenson, explicó en diálogo que no está de acuerdo con este concepto: “Hace varios años se vinculaba a la inteligencia con la habilidad relacionada con la lógico-matemática, que es en base a la cual se desarrolla la IA. Sin embargo, desde la psicología y otras disciplinas se ha comprobado que no existe una sola inteligencia. De hecho, se habla de inteligencia emocional y artística, entre otras”. Este profesional, que estudió filosofía, es líder del Laboratorio de Sistemas Auto-organizantes de la UNAM.

En tanto, los desarrolladores de IA señalan que el objetivo no es copiar la inteligencia humana, sino aumentar la capacidad de los hombres para analizar información. “La inteligencia humana es muy vasta y es capaz de adaptarse para resolver problemas de distinta naturaleza con gran facilidad. La inteligencia artificial no tiene ni la capacidad, ni la flexibilidad del cerebro, pero ofrece ciertas facultades que pueden ayudar a las personas”, señala Lauria. Por este motivo, indica que la AI no nos hará cognitivamente dependientes, tal como sucedió con la llegada de las calculadoras, los mapas o la imprenta.

Foto: Archivo

Educando al artificio

Para Deutch, las personas son mucho más peligrosas de que lo podría ser un robot con inteligencia artificial, por lo que está en contra de que se regule su desarrollo: “Los hombres ya han demostrado que podemos ser muy dañinos. De hecho, una sola persona puede matar a miles. Como las soluciones de IA van aprendiendo de manera paulatina, lo importante es que adquiera conocimientos para el bien, tal como hay que educar a los niños. En síntesis, el desafío de dotar de conocimientos a una persona y a un sistema de IA es el mismo”, sentenció.

El ejecutivo de IBM explica que la responsabilidad debe ser la base para la formulación de la IA. “Los diálogos deben explorar temas pertinentes, que van más allá de los titulares, para promover una mayor comprensión y un nuevo enfoque a partir del conocimiento”, justifica, y explica que cada herramienta transformadora que la gente ha creado desde el motor de impulso, al microprocesador, ha permitido aumentar las capacidades humanas y ha impulsado a las personas a tener sueños más grandes y a hacer más. “Nuestra responsabilidad como miembros de la comunidad mundial es trabajar para garantizar que la IA se desarrolle de forma correcta y por las razones correctas. Por eso, el debate público debe centrarse en facilitar un diálogo basado en las capacidades y limitaciones de las tecnologías de AI, y no en los mitos sugeridos por la ficción”, remata.

Asumir la responsabilidad

Gershenson dice que dado que cualquier avance científico puede usarse con fines no intencionados por quienes la desarrollaron, conviene discutir y ser conscientes de las implicancias que pueden tener esas invenciones, aunque aclara que “no hay que prohibir el desarrollo, sino reflexionar acerca de cómo podría usarse”.

De manera similar, pero más contundente, está la postura del físico de la Universidad de Oxford, ya que no está de acuerdo con regular el desarrollo de la IA: “Ponerle un límite sería querer limitar el pensamiento humano, y eso sería una actitud totalitaria. Es totalmente ilógico creer que algún día las personas nos convertiremos en esclavos de las máquinas si es que éstas se revelan”, concluyó.

Mientras el debate continúa, el gobierno de Estados Unidos cree que la IA podría resolver muchos problemas del mundo, que van desde el cambio climático hasta la desigualdad económica, por eso recomienda una mayor inversión en esa tecnología en todos los niveles de gobierno a través de un informe que explica cómo el gobierno puede participar de un futuro cada vez más impulsado por este tipo de soluciones.

“Para cosechar los beneficios de la inteligencia artificial, primero tendremos que confiar en ella. Esa confianza se ganará a través de la experiencia en la misma forma que aprendimos a confiar en que un cajero automático registraría un depósito, o que un automóvil se detendría cuando el freno se aplica. Este es un periodo vulnerable en el ciclo de vida de cualquier nueva tecnología y la falta de comprensión puede conducir a legislación que impida el progreso”, finaliza Lauria.

Débora Slotnisky