ChatGPT podría redirigir a los usuarios a sitios maliciosos: informe

Debido a que la IA generativa a veces puede alucinar y evocar información inexacta o falsa, se recomienda a los usuarios que verifiquen sus credenciales. Resulta que esto también podría generar problemas. ChatGPT podría proporcionar a los usuarios enlaces a sitios web que alojan malware, según un informe publicado el lunes. relación por Futurismo.

El descubrimiento se produjo durante una prueba del conocimiento de ChatGPT sobre eventos actuales. Cuando se le preguntó Guillermo Goinesganador de la Estrella de Bronce y primer miembro negro de los Navy SEAL recientemente fallecido, Futurismo informó que la respuesta de ChatGPT incluía un enlace a un “sitio web fraudulento”.

Específicamente, ChatGPT-4o sugirió visitar un sitio llamado “County Local News” para obtener más información sobre Goines. Sin embargo, el sitio generó inmediatamente alertas emergentes falsas que, al hacer clic, infectaban la computadora del usuario con malware. El mismo sitio, Futurismo señalado, se ha sugerido para otros temas.

Cuando Descifrar Intentó la prueba de Goines, utilizando el mensaje proporcionado por futurismo, La respuesta de ChatGPT no incluía un enlace al sitio web.

Los desarrolladores de IA han invertido mucho en combatir las alucinaciones y el uso malicioso de sus chatbots, pero proporcionar enlaces a otros sitios web introduce riesgos adicionales. Un sitio web vinculado puede haber sido un sitio legítimo y seguro cuando las empresas de inteligencia artificial lo rastrearon, pero luego fue infectado o tomado por estafadores.

Según Jacob Kalvo, cofundador y director ejecutivo del proveedor de privacidad de datos y Internet. representantes en vivoLos enlaces salientes deben revisarse constantemente.

“Los desarrolladores podrían asegurarse de que existan mecanismos de filtrado adecuados para evitar que los chatbots proporcionen enlaces a sitios web maliciosos”, dijo Kalvo. Descifrar. “Esto puede complementarse con algoritmos avanzados de procesamiento del lenguaje natural (NLP) que pueden entrenar a un chatbot para identificar una URL frente a patrones conocidos de URL maliciosas.

“Además, no debemos olvidar mantener una lista negra de sitios continuamente actualizada y estar atentos a nuevas amenazas”, añadió Kalvo.

Kalvo también recomendó verificar los enlaces de los sitios web, la reputación del dominio y el monitoreo en tiempo real para identificar y abordar rápidamente cualquier actividad sospechosa.

“Esto permite una colaboración continua con expertos en ciberseguridad para frustrar nuevas amenazas a medida que surgen”, dijo Kalvo. “Solo a través de la inteligencia artificial y las capacidades humanas los desarrolladores pueden crear un entorno mucho más seguro para los usuarios. »

Kalvo también destacó la necesidad de una selección cuidadosa de los datos de entrenamiento del modelo de IA para evitar la ingesta y entrega de contenido dañino, así como la necesidad de realizar comprobaciones y actualizaciones periódicas para mantener la integridad de los datos.

Cuando se le contactó sobre el informe, OpenAI proporcionó la misma respuesta que le dio a Futurismonarrativo Descifrar que estaba trabajando con socios editores de noticias para combinar “capacidades de conversación con su contenido de noticias más reciente, asegurando una atribución adecuada”, pero que la función aún no está disponible.

Editado por Ryan Ozawa.

Generalmente inteligente Boletin informativo

Un viaje semanal de IA contado por Gen, un modelo de IA generativa.

Exit mobile version