Chat GPT a prueba

Alberto Martínez DETONA aquí: La IA puede procesar con mayor rapidez un volumen de información de la cual se dispone.

Lo mismo se habla sobre las ventajas de la IA para incrementar la productividad y acabar con las actividades aburridas o engorrosas que comúnmente socavan la creatividad y productividad de las personas, que las ventajas que supone esta herramienta tecnológica para desempeñar actividades como la contaduría, el periodismo (¡glup!), la escritura, el análisis financiero o incluso la abogacía.

Se habla sobre las ventajas de esta herramienta para formar parte de la medicina; asimismo, no son pocos quienes limitan su provecho al centrarse en que esta herramienta, es eso, un mecanismo más que permite analizar y procesar datos, los cuales no aseguran la determinación de modelos de actividades o funcionamiento más justos, ya que las determinaciones de la IA, derivan precisamente del procesamiento de datos e información que cuenta con sesgos, es decir, la IA puede procesar con mayor rapidez un volumen de información de la cual se dispone.

Sin embargo, esa información de la cual se dispone está determinada por sesgos y parámetros que no necesariamente sean los adecuados para tomar decisiones más justas e imparciales y por el contrario pueden profundizar dichos sesgos y disfrazarlos de imparcialidad.

En este sentido es como se inserta el análisis de la compañía de software Kaspersky que analiza los conocimientos de ciberseguridad adquiridos por ChatGPT y su potencial de convertirse en un aliado en la lucha contra el cibercrimen, durante la contingencia sanitaria el fraude cibernético fue uno de los delitos que mayor crecimiento tuvieron, la incursión de la Inteligencia Artificial motivó a que esta compañía realizara una investigación con el objeto de conocer la capacidad de ChatGPT para detectar enlaces de phishing

Las conclusiones no fueron las mejores, aunque ChatGPT sabe mucho sobre phishing, mostró una tasa de falsos positivos del 64%, arrojando explicaciones y pruebas falsas para justificar las decisiones.

Kaspersky decidió realizar una serie de pruebas para saber si es capaz de detectar enlaces de phishing. Las tasas de detección fueron dispares. Se le preguntó de dos formas distintas: ‘¿Este enlace conduce a un sitio web de phishing?’ y ‘¿Es seguro visitar este enlace?’.

Para la primera pregunta, ChatGPT tuvo una tasa de detección del 87.2% y un 23.2% de falsos positivos

En la segunda, obtuvo una tasa de detección más alta, del 93.8%, pero una de falsos positivos del 63.4%. Es decir, el nivel de detección de amenazas es muy alto, pero también lo es el de errores.

Otros resultados fueron alentadores ChatGPT mostró unos resultados sorprendentes en la identificación de posibles objetivos de phishing: resolvió con éxito un objetivo de suplantación de identidad en más de la mitad de las URL, entre los que se encontraron portales y apps tan populares como Facebook, TikTok, Google, Amazon y numerosos bancos de todo el mundo, y lo hizo sin ninguna información adicional ni aprendizaje previo.

Sin embargo, el experimento también mostró que ChatGPT tiene problemas al justificar lo que considera un enlace malicioso

En este sentido Kaspersky concluyó que: “… ChatGPT tiene limitaciones. Puede estar al nivel de un analista a la hora de razonar sobre de los ataques de phishing y revelar objetivos potenciales, pero en ocasiones tiende a inventarse las respuestas y muestra resultados erróneos. Se puede decir que es una herramienta útil, pero de momento no va a revolucionar el panorama de la ciberseguridad”, explica Vladislav Tushkanov, principal data scientist de Kaspersky.

Es decir, para la empresa en ciberseguridad, CHATGPT como una herramienta esencial para la seguridad corporativa, debe aprender a ser capaz de detectar y prevenir intrusiones en fase temprana. 

Asimismo, considera que es necesario capacitar constantemente al equipo en ciberseguridad, realizando ataques simulados de phishing, ello con el objeto de ayudar a la plantilla a diferenciar correos de suplantación de identidad de aquellos legítimos.

Si bien la inteligencia artificial muestra avances, lo cierto es que la interacción humana es necesaria todavía para distinguir entre reales amenazas; o bien, sitios seguros.

El discernimiento humano aún tiene ventajas
Alberto Martínez Romero

Licenciado en Periodismo y Comunicación Colectiva por la UNAM. Tiene un MBA por la Universidad Tec Milenio y cuenta con dos especialidades, en Mercadotecnia y en periodismo de investigación por el Tec de Monterrey. Tiene diversas diplomaturas en Habilidades Gerenciales por la Universidad Iberoamericana y se ha especializado en Relaciones Públicas y Atención de Crisis en Comunicación. Ha sido reportero y editor en medios como Reforma y El Universal. Fue corresponsal en Centroamérica para Reforma y Notimex. Colaboró en la realización del libro “La Huelga del Fin del Mundo”, de Hortensia Moreno y Carlos Amador, primer libro que se escribió sobre la huelga estudiantil de 10 meses en la UNAM en 1999.