La evolución de inteligencia artificial ha crecido exponencialmente con la aparición de 'ChatGPT', una herramienta capaz de generar un sinfín de contenidos escritos como si hubiesen sido redactados por un ser humano. El bot puede descifrar ecuaciones matemáticas y va más allá de crear una simple conversación.
Sin embargo, su uso ha comenzado a suscitar las dudas de la legalidad. Italia fue el primer país en vetar su acceso al considerar que vulneraba la protección de datos de los usuarios. Y desde entonces, otros países como Estados Unidos, Francia, Alemania o China también han abogado por crear una regulación.
Ahora, la Agencia Española de Protección de Datos (AEPD) ha comenzado con iniciado de oficio actuaciones previas de investigación por un posible incumplimiento de la normativa, a la empresa propietaria de ChatGPT, la estadounidense OpenAI. La entidad quiere saber si esta aplicación de inteligencia artificial comete irregularidades en el uso de datos personales de los usuarios.
Asimismo, la Agencia solicitó al Comité Europeo de Protección de Datos (EDPB) solicitó que se incluyera como tema a analizar en su reunión plenaria el servicio de ChatGPT. La Agencia cree que los "tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicación del Reglamento General de Protección de Datos".
En la reunión, que se celebró el jueves, el Comité decidió crear un grupo de trabajo (task force) para aumentar la cooperación e intercambiar información sobre las acciones llevadas a cabo por las autoridades de protección de datos. España es uno de los países que integra este grupo de trabajo, mientras, en paralelo actúa en el marco de sus competencias.
La AEPD apoya un desarrollo de la inteligencia artificial, pero "desde el pleno respeto a la legislación vigente", debido a que "sólo desde ese punto de partida puede llevarse a cabo un desarrollo tecnológico compatible con los derechos y libertades de las personas".