La ética detrás del desarrollo de la IA: el rol crucial de los datos
En las entrañas de la mayoría de organizaciones reside un valor muy importante y que, en muchas ocasiones, no se aprovecha como es debido: su fuente de información interna. Desbloquear el verdadero potencial de los datos internos es algo que las compañías están empezando a hacer, ahora que el desarrollo de la IA Generativa ha escalado exponencialmente. Transformarlos en activos de confianza y valiosos es clave para implementar la Inteligencia Artificial de forma segura, además de garantizar que se obtengan resultados precisos y verdaderos, sin sesgos ni subjetividades.
Es este punto el que en realidad tiene que preocupar a todas aquellas organizaciones que desean instaurar la IA generativa en su core de negocio. La ética detrás del dato es un factor crucial en su evolución para llegar a aplicarla a verdaderos casos de uso.
La parte tecnológica ha avanzado hasta tal punto que no es tan problemática, puesto que existen partners en el mercado que son capaces de ayudar a las empresas a gestionar todo el ciclo del dato para construir una base sólida, ordenada y limpia que les permita afrontar cualquier reto en este ámbito
Pero hay una serie de pilares que se desprenden de esta irrupción que se tienen que tener en cuenta antes de implementar una Inteligencia Artificial solo por subirse a la ola como las empresas de la competencia.
En primer lugar, la privacidad y transparencia son partes imprescindibles para tomar en consideración.
La ética detrás del dato es un factor crucial en su evolución para llegar a aplicarla a verdaderos casos de uso
En la era digital en la que vivimos, la recopilación a gran escala de información personal para entrenar algoritmos plantea interrogantes éticos sobre cómo se utilizan y protegen esos datos. Por eso es esencial abordar la cuestión de la privacidad desde una perspectiva ética, garantizando que los individuos tengan control sobre su información y comprendan cómo se utiliza. A nivel empresarial, en lugar de optar por herramientas de terceros, las propias compañías pueden crear su ecosistema, pero deben adoptar prácticas transparentes, explicando claramente cómo se recopilan, almacenan y utilizan los datos.
La transparencia en el desarrollo y aplicación de algoritmos es igualmente crucial. La opacidad algorítmica puede llevar a consecuencias no deseadas y crear desconfianza en la tecnología.
Es necesario que se lleve a cabo tareas de pedagogía y divulgación sobre cómo funcionan los algoritmos y qué factores influyen en sus decisiones. La implementación de auditorías y revisiones independientes puede contribuir a garantizar que los sistemas de IA respeten la privacidad y operen de manera ética. Además, el diseño de tecnologías que minimicen la recopilación innecesaria de datos y promuevan la anonimización puede ser una buena opción para mantener el equilibrio entre innovación y protección de la privacidad.
Otro de los retos que se nos presenta son los sesgos. Estos pueden surgir de conjuntos de datos que estén ajustados a la realidad o de algoritmos mal diseñados, lo que puede originar discriminaciones injustas. Los desarrolladores deben asumir la responsabilidad de minimizar estos sesgos, adoptando enfoques de equidad y diversificación en la recopilación de datos y el diseño de algoritmos.
Recientemente hemos leído muchas noticias sobre el parón de Gemini por parte de Google, debido a los resultados que sobrerrepresentaban minorías. Para abordar los sesgos, es esencial fomentar la diversidad en los equipos de desarrollo. A pesar de que se ha hablado mucho de la desaparición del factor humano con la llegada de esta tecnología, la realidad es que nuestra intervención es esencial. Y contar con diferentes perspectivas puede ayudar a identificar y rectificar posibles discriminaciones.
La opacidad algorítmica puede llevar a consecuencias no deseadas y crear desconfianza en la tecnología
El siguiente factor en el que las compañías se están apoyando con la IA es la toma de decisiones, y aquí la ética juega un papel fundamental. La transparencia en los criterios de decisión y la comprensión de cómo los algoritmos eligen diferentes criterios frente a otros son fundamentales. Además, proveer de opciones que permitan a los usuarios comprender, por un lado, y cuestionar las decisiones de la IA, por otro, contribuirá a construir una confianza más sólida en estas tecnologías.
Por último, establecer normativas y un marco legal sólido es primordial para guiar el desarrollo ético de la inteligencia artificial. La legislación debe abordar cuestiones cruciales, como la protección de la privacidad, la equidad en el uso de algoritmos y la responsabilidad de las empresas y desarrolladores. A medida que la tecnología avanza rápidamente, es necesario que las normativas se mantengan actualizadas y adapten para abordar desafíos emergentes.
Afortunadamente nuestra región es pionera en ello y contamos con distintas regulaciones y normativas como el GDPR, Schrems III o la Ley de Servicios Digitales de la UE (DSA), así como el primer Reglamento de Inteligencia Artificial.
En definitiva, la ética debe de estar detrás del desarrollo de esta tecnología para que se convierta en una aliada y no en una enemiga. Por eso hay que poner el foco en los datos, la fuente más valiosa que tiene cualquier organización. Con una clasificación y gobernanza meticulosas, estos se vuelven fácilmente “consumibles”, lo que permite a todos los usuarios de cualquier departamento obtener valor, tomar decisiones o hacer más eficiente su trabajo de forma ágil, individual y exitosa.
*** Sergio Rodríguez de Guzmán es Chief Technology Officer de PUE.