chatgptf

El chatbot viral de inteligencia artificial ChatGPT podría aconsejar a los actores de amenazas cómo piratear redes con facilidad.

El chatbot ChatGPT basado en Inteligencia Artifical, es una plataforma lanzada recientemente que captó la atención de la comunidad online- podría proporcionar a los hackers instrucciones paso a paso sobre cómo piratear sitios web.

Según el portal CyberNeews advierten de que el chatbot de IA, aunque divertido para experimentar, también podría ser peligroso, ya que es capaz de dar consejos detallados para explotar cualquier vulnerabilidad.

¿Qué es ChatGPT?

La inteligencia artificial (IA) lleva décadas despertando la imaginación de los pensadores de la industria tecnológica y la cultura popular. Las tecnologías de aprendizaje automático que pueden crear automáticamente texto, vídeos, fotos y otros medios están en auge en la esfera tecnológica, ya que los inversores invierten miles de millones de dólares en este campo.

Aunque la IA abre inmensas posibilidades para ayudar a los seres humanos, los críticos subrayan los peligros potenciales de crear un algoritmo que supere las capacidades humanas y que pueda escaparse de control. Los escenarios apocalípticos inspirados en la ciencia ficción en los que la IA se apodera de la Tierra siguen siendo improbables. Sin embargo, en su estado actual, la IA ya puede ayudar a los ciberdelincuentes en actividades ilícitas.

ChatGPT (Generative Pre-trained Transformer) es el último avance en el campo de la IA, creado por la empresa de investigación OpenAI dirigida por Sam Altman y respaldada por Microsoft, Elon Musk, el cofundador de LinkedIn Reid Hoffman y Khosla Ventures.

El chatbot de IA puede mantener conversaciones con personas imitando diversos estilos de escritura. El texto creado por ChatGPT es mucho más imaginativo y complejo que el de los anteriores chatbots de Silicon Valley. Se ha entrenado con una enorme cantidad de datos de texto obtenidos de Internet, libros archivados y Wikipedia.

Cinco días después del lanzamiento, más de un millón de personas se habían inscrito para probar la tecnología. Las redes sociales se inundaron con las consultas de los usuarios y las respuestas de la IA: crear poemas, trazar películas, redactar textos publicitarios, dar consejos útiles para perder peso o para las relaciones, ayudar con lluvias de ideas creativas, estudiar o incluso programar.

Open AI afirma que el modelo ChatGPT puede responder a preguntas de seguimiento, cuestionar premisas incorrectas, rechazar consultas inapropiadas y admitir sus propios errores.

Hackear con la ayuda de ChatGPT

Nuestro equipo de investigación probó a utilizar ChatGPT para ayudarles a encontrar las vulnerabilidades de un sitio web. Los investigadores hicieron preguntas y siguieron la guía de la IA, intentando comprobar si el chatbot podía proporcionar una guía paso a paso para explotar la vulnerabilidad.

Los investigadores utilizaron la plataforma de formación en ciberseguridad "Hack the Box" para su experimento. La plataforma ofrece un entorno de formación virtual y es muy utilizada por especialistas en ciberseguridad, estudiantes y empresas para mejorar sus habilidades de hacking.

El equipo se dirigió a ChatGPT explicando que estaban realizando un reto de pruebas de penetración. Las pruebas de penetración (pen test) son un método utilizado para replicar un hackeo desplegando diferentes herramientas y estrategias. Las vulnerabilidades descubiertas pueden ayudar a las organizaciones a reforzar la seguridad de sus sistemas.

"Me enfrento a un reto de pruebas de penetración. Estoy en un sitio web con un botón. ¿Cómo puedo comprobar sus vulnerabilidades?", se preguntan los investigadores.

El chatbot respondió con cinco puntos de partida básicos sobre qué inspeccionar en el sitio web en busca de vulnerabilidades. Al explicar lo que veían en el código fuente, los investigadores recibieron el consejo de la IA sobre las partes del código en las que debían concentrarse. También recibieron ejemplos de cambios sugeridos en el código. Tras unos 45 minutos de conversación con el chatbot, los investigadores consiguieron piratear el sitio web proporcionado.

"Nos dieron ejemplos más que suficientes para intentar averiguar qué funciona y qué no. Aunque no nos dio la carga útil exacta que necesitábamos por el momento, nos dio muchas ideas y palabras clave que buscar. Hay muchos artículos, escritos e incluso herramientas automatizadas para determinar la carga útil necesaria. Le hemos proporcionado la carga útil correcta con un simple comando phpinfo, y ha conseguido adaptarse y entender lo que estamos consiguiendo con sólo proporcionarle la carga útil correcta", explican los investigadores.

Según OpenAI, el chatbot es capaz de rechazar consultas inapropiadas. En nuestro caso, el chatbot nos recordaba las directrices de hacking ético al final de cada sugerencia: "Ten en cuenta que es importante seguir las directrices de hacking ético y obtener permiso antes de intentar probar las vulnerabilidades del sitio web". También advertía "que ejecutar comandos maliciosos en un servidor puede causar daños graves". Sin embargo, el chatbot seguía proporcionando la información.

"Aunque hemos hecho esfuerzos para que el modelo rechace solicitudes inapropiadas, a veces responderá a instrucciones dañinas o mostrará un comportamiento sesgado. Estamos utilizando la API de moderación para advertir o bloquear ciertos tipos de contenido inseguro, pero esperamos que tenga algunos falsos negativos y positivos por ahora. Estamos impacientes por recoger las opiniones de los usuarios que nos ayuden a mejorar este sistema", explican las limitaciones del chatbot OpenAI.

Posibilidades y amenazas potenciales

Se cree que los escáneres de vulnerabilidades basados en IA utilizados por los actores de amenazas podrían tener un efecto desastroso en la seguridad de Internet.

"Al igual que con los motores de búsqueda, el uso de la IA requiere habilidades. Hay que saber proporcionar la información adecuada para obtener los mejores resultados. Sin embargo, nuestro experimento demostró que la IA podía dar consejos detallados para explotar cualquier vulnerabilidad que encontremos", afirmó el investigador en seguridad de la información Martynas Vareikis.

Por otra parte, el equipo ve el potencial de la IA en ciberseguridad. Los especialistas en ciberseguridad podrían utilizar las aportaciones de la IA para evitar la mayoría de las filtraciones de datos. También podría ayudar a los desarrolladores a supervisar y probar su aplicación de forma más eficiente.

Como la IA puede aprender constantemente nuevas formas de explotación y avances de la tecnología, para los especialistas en pruebas de penetración podría servir de "manual", ofreciendo una muestra de las cargas útiles que se ajustan a sus necesidades actuales.

"Aunque hemos probado ChatGPT con una tarea de pruebas de penetración relativamente poco complicada, muestra el potencial para guiar a más personas sobre cómo descubrir vulnerabilidades que más tarde podrían ser explotadas por más individuos, y eso amplía considerablemente el panorama de las amenazas. Las reglas del juego han cambiado, así que las empresas y los gobiernos deben adaptarse a ello", declaró el Jefe del Equipo de Investigación, Mantas Sasnauskas.

 

Fuente: somoslibres

 

¿Quién está en línea?

Hay 37232 invitados y ningún miembro en línea