Inteligencia Artificial: ¿Temor al futuro?

Algo temen quienes en el llamado “mundo occidental” trabajan en la creación y expansión multidimensional de la llamada “Inteligencia Artificial” (IA) cuando piden mecanismos de control, supervisión y hasta eventuales sanciones por su mal uso.

Ya dejaron de ser fantasías de H.G.Wells o Isacc Asimov. Sus relatos parecen ser cuentos para niños en esta etapa del siglo XXI. Sus alcances son imprevisibles e incorporan nuevas interrogantes al destino de la Humanidad.

El mas reciente ejemplo de la zozobra que nace con el crecimiento de la IA lo dio Sam Altman, director general de OpenAI, ente creadora del ChatGPT, una herramienta cada vez mas popular para el diálogo mediante Internet. Él acaba de sugerir ante el Senado estadounidense la creación de una agencia nacional o internacional que concediera licencias a los sistemas de IA más potentes.

En su exposición, según reportes de prensa, dijo que la inteligencia artificial puede causar “un daño significativo al mundo” si no se regula. Estimó que “la intervención de los gobiernos será fundamental para mitigar los riesgos de los sistemas de inteligencia artificial (IA)”.

“A medida que esta tecnología avanza, entendemos que la gente esté preocupada por cómo podría cambiar nuestra forma de vida. Nosotros también lo estamos”, comentó Altman antes de sugerir la creación de una agencia que concediera licencias a los sistemas de IA más potentes y tuviera autoridad para “retirar esa licencia y garantizar el cumplimiento de las normas de seguridad”.

Dicen que el auge del ChatGPT ha desatado el pánico entre los educadores por el uso que le dan numerosos estudiantes para hacer trampas en los exámenes.

Esto ha generado nuevas preocupaciones sobre la capacidad de esta herramienta de “IA generativa” para engañar a la gente, difundir falsedades, violar la protección de los derechos de autor y poner en peligro puestos de trabajo.

“La Inteligencia Artificial Generativa (IAG) es una rama de la inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes. Esta tecnología utiliza algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego generar contenido nuevo y único. Los avances en la IAG han sido impresionantes en los últimos años…”

Marcelo Granieri, Profesor de OBS Business School

Una alerta adicional a la de Altman se desprende de su pedido de creación de un ente regulador-controlador, porque si recae en Washington un poder supranacional omnipresente en esta materia sería como entregarle la llave del cielo al diablo.

Los usuarios no deben confiar ciegamente en las respuestas que ofrece la IA. Foto: Gettyimages

Otras preocupaciones

Muchos temen que la IA que pudieran “autorreplicarse y autoexfiltrarse en la naturaleza”, lo que se refiere a la vieja amenaza futurista en la que los robots se enfrentan a los humanos o en este caso que la IA pudieran manipular sus decisiones.

Ya el Parlamento Europeo aprobó hace unos días medidas para regular su uso. La legislación será tratada en un pleno en junio para acordar la versión definitiva del nuevo reglamento.

Redacción Cambio, de Colombia, publicó que “a medida que la IA se vuelve más omnipresente en nuestras vidas, surgen interrogantes sobre su impacto en la sociedad, la economía y los derechos individuales”.

Al respecto, refiriéndose a un segmento importante del turismo internacional, escribió “Inteligencia Artificial y Big Data: la dupla ideal para atender a turistas hiperconectados”. Y los enumeró

1. Riesgos para la seguridad y el sustento: Uno de los principales focos de preocupación se centra en el potencial de la IA para poner en peligro la vida y el sustento de las personas. *Esto se aplica especialmente en áreas como la medicina y las finanzas, donde se requiere una regulación sólida para garantizar que las decisiones tomadas por los sistemas de IA sean precisas, éticas y seguras.

2. Discriminación y violación de derechos: Otra preocupación destacada es el uso de la IA para fines discriminatorios o para violar *los derechos civiles de las personas. Los legisladores se preocupan por la posibilidad de que los algoritmos de IA refuercen prejuicios existentes o generen sesgos*, como la discriminación racial o de género, al tomar decisiones en áreas como contratación, acceso a servicios o préstamos.

3. Responsabilidad y regulación: Existe un debate sobre si la regulación de la IA debe recaer en los desarrolladores de la tecnología o en las empresas que la utilizan. Algunos abogan por la creación de un regulador independiente de la IA para supervisar su desarrollo y aplicación, mientras que otros argumentan que la responsabilidad debe recaer en las empresas que implementan la tecnología.

4. Privacidad y protección de datos: La recopilación masiva de datos por parte de los sistemas de IA plantea preocupaciones sobre la privacidad y la protección de datos personales. Los legisladores buscan establecer reglas claras y garantizar que los datos de las personas sean utilizados de manera ética y segura, evitando el riesgo de violaciones de la privacidad o del mal uso de la información personal.

5. Desinformación y manipulación: La proliferación de la IA generativa, como ChatGPT, que puede crear contenidos similares a los generados por humanos, ha despertado preocupaciones sobre la posibilidad de que se utilice para difundir desinformación o manipular la opinión pública. Los legisladores buscan formas de abordar este problema y establecer salvaguardias para prevenir la propagación de noticias falsas y la manipulación de la información*.

6. Ética y responsabilidad: La IA plantea preguntas éticas y desafíos en términos de responsabilidad. Los legisladores se enfrentan al desafío de establecer estándares éticos claros para el desarrollo y uso de la IA, así como determinar quién es responsable en caso de daños causados por sistemas de IA autónomos o decisiones automatizadas.

Aunque hay un consenso general en la necesidad de abordar estas preocupaciones, no existe una visión unificada sobre cómo regular la IA de manera efectiva. Algunos argumentan que la *regulación debe enfocarse únicamente en áreas críticas, como diagnósticos médicos, mientras que otros abogan por un enfoque más amplio que abarque múltiples aspectos de la IA.

Última preocupación…por el momento

Al cierre de este texto leo: Exejecutivo de Google advierte de que la IA podría ver a los humanos como “escoria” y crear “máquinas asesinas”

Se trata de Mo Gawdat, quien pasó más de una década como director general del laboratorio de Google enfocado en proyectos de IA y robótica, quien comparó un hipotético futuro con el de una sociedad de características negativas que causan la alienación humana, como el que aparece en la película ‘Yo, robot’.

Según refleja Russia Today, basándose en un reportaje de New York Post, este exejecutivo de Google aseguró que las máquinas impulsadas por la “inteligencia artificial” “podrían llegar a ver a los humanos como “escoria” e incluso pensar en conspirar para acabar con estos”,

El experto pasó más de una década como director general de X Development —laboratorio conocido antes como Google X, enfocado en proyectos que incluyen IA y robótica. Estima que esta tecnología “tiene la capacidad de crear máquinas asesinas porque los humanos las están creando”.

“La IA podría crear exterminadores en la medida en que sea capaz de “generar su propia potencia informática y realizar instalaciones por sí misma a través de brazos robóticos”. Por ello comparó esa perspectiva a lo que refleja el filme de ciencia ficción ‘Yo, robot’, protagonizada por Will Smith, en el cual la IA decide tomar el control y eliminar a los humanos. “Afirmó que esa es una clara posibilidad”.

Acotó que “los modelos de aprendizaje que entrenan (a la IA) aprenden a partir del universo creado en línea, donde abundan las malas noticias, la ira y el odio, y esto podría incentivarla a ver la especie como malvada y como una amenaza. Es probable que solo vea lo peor de lo que la humanidad tiene para ofrecer porque “somos falsos en las redes sociales, somos groseros, estamos enojados o mentimos en las redes sociales”.

Considera que “las empresas tecnológicas están demasiado involucradas financieramente para dar marcha atrás. Puso como hipotético ejemplo: “Si Google está desarrollando IA y teme que Facebook le derrote, no se detendrá porque tiene la certeza absoluta de que, si se detiene, alguien más no lo hará”.

Russia Today añade que “Gawdat no es el único con una posición fatalista alrededor del tema. El científico Geoffrey Hinton, considerado el ‘padrino’ de la IA, coincide en que los nuevos sistemas de IA podrían constituir un riesgo para la humanidad. Le preocupa que no solo generen su propio código informático, sino que lo ejecuten por sí mismos y desarrollen comportamientos inesperados, por lo que teme que algún día esta tecnología pueda dar paso a las armas verdaderamente autónomas, como los robots asesinos que se han popularizado en la ciencia ficción”.

Sobre el tema hay mucho mas que decir, por ahora que aún tenemos tiempo para advertir de peligros, aunque falta optimismo en frenarlos si vemos que está pasando hoy con el cambio climático, que hace unos lustros era potencial problema y hoy es un desastre planetario.

Tomado de Cubadebate