Estas han sido dos semanas intensas de nuevo en el mundo de la inteligencia artificial, si bien más que por la tecnología en sí misma por los vaivenes en la dirección ejecutiva de OpenAI con el cese primero de Sam Altman como consejero delegado y fundador y su restitución pocos días después y destitución del Consejo de Administración promovida por Microsoft sustituyendo a quienes habían osado cesar al anterior.
Y todo ello parece que se ha orquestado por la tensión entre el equipo fundador que la concibió como un proyecto sin ánimo de lucro y enfoque abierto, colaborativo y ético y Altman y Microsoft que alentados por el alcance de la herramienta prefieren llevar la investigación al extremo, lo que podría facilitarles la primacía empresarial global y con ello la supremacía de Estados Unidos frente a China como primera potencia tecnológica mundial indiscutible.
Pero volviendo de la geoestrategia mundial a la Málaga de los espetos, en una reunión de trabajo en Certus la semana pasada sobre inteligencia artificial, los ingenieros nos comentaban la incertidumbre legal que existe en el sector respecto del empleo de dicha tecnología para actividades de “scraping”.
Este término lo traduce el diccionario de Cambridge por “rascado” y se refiere en nuestro ámbito digital legal a la actividad por la que se realizan búsquedas en internet de información de otras páginas webs y se extrae de ellas aquélla que resulta útil o necesaria para los fines pretendidos por quien ejecuta la búsqueda.
Esta actividad no es algo novedoso en la historia reciente, incluso antes de la democratización de la inteligencia artificial provocada por la aparición de Chat gpt, puesto que era frecuente su uso para seguimiento de precios (herramientas de comparación de precios en distintos sectores como por ejemplo habitaciones de hotel, seguros…), o para análisis de la competencia, seguimiento de noticias u otros.
Lo cierto sin embargo es que la inteligencia artificial parece un guante hecho a la medida de la mano de la inteligencia artificial por las virtudes que la tecnología presenta para la ejecución de la tarea con un elevado índice de éxito en cuanto al rastreo de información, análisis y selección de datos útiles, extracción de los mismos y preparación y presentación de la información estructurada todo ello en el marco de un proceso automatizado e inmediato.
Ahora bien, en dicho proceso automatizado se pueden poner en riesgo normas básicas de nuestro sistema jurídico no tanto porque se hayan publicado normas específicas al respecto sino más bien porque hay normas de nuestro cuerpo normativo que son aplicables con carácter general y por tanto también son aplicables a los procedimientos que sigue la inteligencia artificial en la consecución de sus objetivos.
Y en esta línea el scraping puede presentar riesgos tanto en la parte contractual como en la parte legal. En la parte contractual en la medida en la que las páginas webs incluyen en sus términos y condiciones (o deberían incluirlo) limitaciones al uso o rastreo de la información por terceros que en ellas recogen impidiendo la extracción de parte o toda la información incluida para usos no autorizados expresamente por ella. Y en la parte legal hay al menos dos áreas jurídicas diferentes que son la propiedad intelectual y la protección de los datos de carácter personal.
Propiedad intelectual en la medida en la que si no filtramos con la inteligencia artificial aquella información que “rascamos” de otras webs de manera que sólo extraemos aquella que no está protegida por los derechos de protección de la propiedad intelectual, podríamos estar incumpliendo la normativa que protege las obras de terceros y por tanto podrían reclamarnos dichos terceros la defensa de sus derechos pudiéndonos exigir incluso la indemnización de los daños y perjuicios producidos por la violación de los mismos.
Y Protección de datos porque en caso de que en el marco de esa extracción de datos de otras webs estemos captando datos de carácter personal de terceros, el estar tratando esos datos (la recogida en sí mismo de esos datos ya supone un tratamiento de datos a los efectos de la normativa vigente) sin base de legitimación jurídica suficiente podría suponer la violación de las normas de protección de datos españolas y europeas y por tanto ser sancionados por la Agencia Española De Protección De Datos por ello.
Por tanto si somos desarrolladores de herramientas de inteligencia artificial y pensamos que el scraping puede ser una herramienta muy útil que explotar deberemos analizar con cautela cómo asegurarse de respetar los términos y condiciones de las webs objetivo y además proteger dichos derechos de propiedad intelectual y de protección de datos para evitar reclamaciones de terceros.
Distinto problema será, que no es menor, valorar si la información que hemos extraído mediante scraping de páginas webs de terceros es fiable y segura o no lo es, y ello porque la empresa que ejecuta el scraping podría estar transmitiendo a sus usuarios información que puede no ser fidedigna y provocarles un daño o perjuicio a quienes confíen en dicha información permitiendo al perjudicado exigir una indemnización de daños por su responsabilidad por haber confiado en la información errónea.
Desde luego es probable que la inteligencia artificial transforme la profesión de la abogacía pero lo que también parece claro es que no nos va a faltar el trabajo en la medida en la que las nuevas tecnologías sigan innovando.