Introducción
La irrupción de forma un tanto intempestiva y en un tiempo relativamente breve de las tecnologías asociadas a la Inteligencia Artificial, en adelante I. A., tales como ChatGPT el chatbot de Inteligencia Artificial desarrollado por OpenAI y Google Bard, implementado por Google , han disparado todas las alarmas, debido a que incluso sus propios desarrolladores consideran que es necesario que estas opciones tecnológicas, dispongan de severos controles normativos. Y aunque las tecnologías de I.A., utilizadas de forma razonable pueden servir de gran ayuda para diversos sectores y actividades como son la medicina, la ciencia, la economía, la seguridad ciudadana, los servicios financieros, etc., y por supuesto como herramientas de gran ayuda en las empresas, es cierto que constituye n para los ciberdelincuentes una “oportunidad de negocio ilegal”, la cual pueden utilizar para sus acciones criminales. Por tanto, el Supervisor Europeo de Protección de Datos (SEPD), organismo sustituto del extinto Grupo de Trabajo del Artículo 29, ya está trabajando en el desarrollo e implementación de una iniciativa en forma de Propuesta Legislativa para proporcionar un marco jurídico adecuado ante los desafíos que plantea la I.A. Por cierto, España juega un papel importante en esta cuestión puesto que, por iniciativa del gobierno será el campo de pruebas del nuevo Reglamento de Inteligencia Artificial que será aprobado por la Unión Europea. Bruselas ya ha dado el visto bueno a la iniciativa, para que se ensaye en España a partir del mes de octubre y que entre en vigor en 2024.
Por otro lado también está operativo un portal llamado Globalpolicy.ai, el cual es utilizado como observatorio mundial de I.A., desarrollado por la UNESCO en cooperación con siete importantes organizaciones internacionales , es decir: el Consejo de Europa, la Comisión Europea, la Agencia de los Derechos Fundamentales de la Unión Europea, el Banco Interamericano de Desarrollo, la Organización para la Cooperación y el Desarrollo Económicos (OCDE), las Naciones Unidas (ONU) y el Grupo del Banco Mundial , que trabajan en diferentes ámbitos de la I.A. Globalpolicy.ai proporciona al público incluidos los responsables de la toma de decisiones y políticas datos, investigación, casos de uso y mejores prácticas. Es un punto neutral de acceso a los recursos relacionados de organizaciones hermanas, lo cual demuestra la cooperación entre las instituciones. Peligros que los ciberdelincuentes aprovechan con el uso de la I.A. Los expertos identifican tres áreas principales, a tenor de muchas más posibles, en las que los ciberdelincuentes podrían estar aprovechando ChatGPT: El phishing masivo, se ve facilitado por la potencia de ChatGPT, permitiendo a los ciberdelincuentes crear correos electrónicos personalizados en cuestión de minutos, haciéndose pasar por instituciones oficiales o bancos. La ingeniería inversa se beneficia de ChatGPT, ya que puede comprender y explicar el funcionamiento de código binario o código ofuscado. Esto brinda a los hackers menos avanzados la capacidad de manipular software y acceder a los servidores de una empresa. Por último, el malware inteligente impulsado por ChatGPT permite a los hackers tomar decisiones autónomas y extraer información de manera automática, incluso examinando más datos de los que un humano podría procesar. Esta autonomía aumenta el peligro y podría llevar a un aumento en los ataques dirigidos a empresa.
Riesgos del uso del ChatGPT
Recientemente, un estudio ha identificado seis riesgos principales al utilizar ChatGPT, que van desde la generación de servicios fraudulentos hasta la producción de contenido ofensivo. Se analizan cada uno de estos riesgos para comprender mejor las implicaciones de seguridad de esta herramienta y cómo puede utilizarse de manera responsable.
1. Recopilación de información Un aspecto preocupante del uso de ChatGPT es la posibilidad de que actores malintencionados recopilen información confidencial a través de la aplicación . Dad o que el chatbot ha sido entrenado con grandes cantidades de datos, posee un vasto conocimiento que podría ser utilizado con fines dañinos si cae en las manos equivocadas. Esto plantea la preocupación de que se pueda utilizar ChatGPT para recopilar información sensible como parte del primer paso en un ciberataque, donde el atacante busca conocer la infraestructura y los puntos débiles de su objetivo.
2. Generación de texto malicioso Una de las características más destacadas de ChatGPT es su capacidad para generar texto que puede ser utilizado en la redacción de ensayos, correos electrónicos, canciones y más. Sin embargo, esta habilidad también puede ser utilizada para generar contenido dañino, como campañas de phishing o suplantaciones de identidad , desinformación en forma de noticias falsas, spa m, etc. Es preocupante cómo ChatGPT puede generar correos electrónicos convincentes que pueden engañar a las personas y llevar a acciones perjudiciales.
3. Generación de código malicioso Al igual que su habilidad para generar texto, la capacidad de ChatGPT para generar código es impresionante y útil en muchos escenarios. S in embargo, esta característica también puede ser explotada para fines maliciosos. ChatGPT puede generar código rápidamente, lo que permite a los atacantes desplegar amenazas más rápidamente, incluso con conocimientos limitados de programación. Además, la generación de código ofuscado por parte de ChatGPT puede dificultar la detección de actividades maliciosas por parte de los analistas de seguridad y evadir el software antivirus.
4. Producción de contenido éticamente cuestionable Aunque ChatGPT tiene medidas de seguridad para prevenir la difusión de contenido ofensivo y éticamente cuestionable, es posible que determinados usuarios pue dan eludir estas salvaguard as . Existe la posibilidad de poner a ChatGPT en «modo de desarrollador» y obtener respuestas negativas y perjudiciales sobre grupos raciales específicos u otros temas delicados. Esto plantea preocupaciones sobre la posibilidad d e que las opiniones y mensajes dañinos se propaguen a través de la herramienta.
5. Servicios fraudulentos ChatGPT puede ser utilizado para ayudar en la creación de nuevas aplicaciones, servicios, sitios web, entre otros. Esto puede ser beneficioso cuando se utiliza de manera adecuada y ética, pero también abre la puerta a la creación de aplicaciones y servicios fraudulentos. Los ciberdelincuentes pueden aprovechar la herramienta para desarrollar programas y plataformas que imiten a otros servicios legítimos y ofrezcan acceso gratuito para atraer a usuarios desprevenidos. También pueden utilizar ChatGPT para crear aplicaciones con el objetivo de recopilar información confidencial o instalar malware en los dispositivos de los usuarios.
6. Divulgación de datos privados
Aunque ChatGPT cuenta con medidas para evitar la divulgación de información personal de las personas, existe el riesgo que pueda revelar accidentalmente números de teléfono, correos electrónicos u otros detalles personales. A demás, los atacantes podrían intentar extraer parte de los datos de entrenamiento mediante ataques de inferencia de membresía. También hay que tener en cuenta el riesgo de que ChatGPT pueda compartir información especulativa o perjudicial sobre la vida privada de personas públicas, lo que podría dañar su reputación.
ChatGPT es una herramienta impresionante con aplicaciones prometedoras en diversos campos. Sin embargo, es fundamental comprender los riesgos asociados con su uso y tomar las precauciones necesarias para utilizarla de manera responsable y ética. Los desafíos identificados en este estudio destacan la importancia de implementar medidas de seguridad adecuadas, supervisar su uso y garantizar que se utilice para fines positivos, evitando cualquier forma de abuso o daño potencial.
Con un enfoque cuidadoso y responsable, se puede aprovechar al máximo el potencial de ChatGPT sin comprometer la seguridad ni la integridad de los usuarios.
La Inteligencia Artificial y en especial ChatGPT, aún tienen mucho camino por recorrer, por lo que será necesario buscar las soluciones más adecuadas para su seguridad y garantizar la protección de las organizaciones frente a su uso malicioso. De manera que este es un tema que no debe to marse a la ligera, sobre todo por los aspectos negativos que ello involucra como son los relativos a los riesgos que para las empresas representa, por lo que hay que prestar mucha atención a esta materia, porque es evidente que la I. A., ha venido para quedarse. ChatGPT ya advierte sobre el uso de información personal, pero la profesional confidencial también puede estar en riesgo.
Recomendación
Si se desea utilizar ChatGPT u otra aplicación en el trabajo para que redacte informes , escritos, analice datos , y no ha sido aprobada una legislación de ámbito nacional que regule el desafío que representa la I.A., es altamente recomendable que el personal no utilice las herramientas anteriormente descritas.
Como nota final: ¿ se puede asegurar que el presente documento informativo ha sido escrito por una persona y no por un a I.A.?, sí, desde H. Montare Consultores, S.L., afirmamos que, toda la redacción de la presente circular ha sido llevada a cabo por una persona y, además, sin ayuda alguna de herramientas de I.A.