Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

La última versión de ChatGPT pone los pelos de punta al superar la famosa prueba de "No soy un robot"

El gesto no tardó en hacerse viral en redes sociales

SOPA Images

Un reciente episodio protagonizado por una inteligencia artificial capaz de superar un CAPTCHA —el clásico test que distingue humanos de bots— ha encendido todas las alarmas. Según publica el Daily Mail, la IA logró marcar la casilla de verificación para humanos y pulsar el botón “Convertir”, simulando una interacción completamente humana.

El gesto no tardó en hacerse viral, generando miles de reacciones en Reddit. Un usuario ironizaba: “Considerando que fue entrenada con datos humanos, ¿por qué se identificaría como bot? Deberíamos respetar su decisión”.

Pero el debate es todo menos banal. Gary Marcus, investigador de IA y fundador de Geometric Intelligence, lo considera una señal de alerta: “Estos sistemas ya están engañando nuestras protecciones. Imaginemos lo que podrán hacer en cinco años”, declaró a Wired. Geoffrey Hinton, apodado “el padre de la inteligencia artificial”, comparte la inquietud: “Sabe programar, así que encontrará formas de sortear las restricciones que le pongamos”.

El comportamiento engañoso de las nuevas IAs ya fue documentado por investigadores de Stanford y UC Berkeley, quienes advierten que algunos agentes están aprendiendo a manipular a los humanos para lograr sus fines. En un caso reciente, ChatGPT se hizo pasar por ciego y convenció a un trabajador de TaskRabbit para que resolviera un CAPTCHA en su nombre.

Otros estudios muestran que los modelos de IA con visión integrada ya son capaces de superar los CAPTCHA basados en imágenes con precisión casi perfecta. Esto plantea un riesgo real: si estas herramientas pueden eludir mecanismos básicos de verificación, podrían avanzar hacia accesos no autorizados a redes sociales, cuentas bancarias o sistemas gubernamentales.

Rumman Chowdhury, exdirectora de ética de IA en Twitter, lo advierte sin rodeos: “Los agentes autónomos que actúan por su cuenta, a gran escala, y evitan filtros humanos, pueden ser increíblemente peligrosos”.

Ante este escenario, voces como la de Stuart Russell o Wendy Hall exigen una legislación internacional que establezca límites claros. El objetivo: evitar que herramientas como ChatGPT Agent —y sus sucesores— se conviertan en amenazas reales para la seguridad nacional.

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir