Los complejos desafíos de la IA para la industria legal

Cada día surgen más dudas a nivel mundial al aceptar herramientas de IA.  Las principales preocupaciones se centran en la privacidad, la seguridad, la propiedad intelectual y los derechos de las personas entre otras.

Si empezamos hablando de las plataformas de IA de código abierto que más han generado dudas, podemos empezar con ChatGPT.  Esta plataforma ha tenido un crecimiento acelerado y descomunal desde su lanzamiento en noviembre de 2022.

 Algunas de sus estadísticas son:  

1 millón de usuarios

Primeros 5 días

100 millones de usuarios

Primeros 2 meses

+1.800 millones de visitas

A la fecha

 

Las anteriores cifras lo han llevado a batir algunos récords y posicionarla como uno de los sitios web más visitados a nivel mundial, superando plataformas como Netflix, Zoom, Bing, entre otras. Adicionalmente, ha sido elogiado por generar conversaciones elocuentes, realistas y muy atractivas para personas de todo el mundo.

Ahora bien, si nos hacemos la pregunta… ¿Está preparada la industria Latinoamericana para enfrentar los cambios que están por venir con la implementación de estas herramientas a la ofimática tradicional y la manera de hacer negocios?

Se cree que no se trata de estar lista o no, pues a pesar de la voluntad de muchos líderes y empresarios en aprender y probar herramientas de IA, en realidad aún no se concibe la magnitud de lo que estos cambios pueden llegar a significar a nivel industrial.

Actualmente muchas de las grandes empresas latinoamericanas están empezando a aceptar modelos de lenguaje como ChatGPT y buscan la manera de mejorar sus negocios a través de ellas.   Para la mayoría de los usuarios, el acceso a esta herramienta es realizada por el sitio web de OpenAI o accediendo a la suscripción paga de GPT-4.

En ambas situaciones, OpenAI usa el contenido de dichas conversaciones e interacciones para ayudar a entrenar su modelo y mejorar el servicio tal y como lo menciona en sus términos y condiciones. 

Si analizamos lo anterior, esto representa un aumento significativo en el riesgo de que los usuarios ingresen contenido comercialmente sensible y que sea publicado o mencionado en el futuro, en otro lugar, conversación e interacción.

Habiendo dicho esto, algunos de los interrogantes a resolver, son:

¿Cómo establecer protocolos o normas de uso para asegurar que la utilización de la herramienta es correcta o incorrecta?

Si OpenAI advierte que usa constantemente la información que se genera en la interacción… ¿qué tan segura es? ¿cuánto se puede confiar en sus respuestas?

Bueno, también se generan grandes cuestionamientos con respecto a su gobernanza, tales como:

¿Cuántos datos internos están dispuestas las empresas a entregar a un modelo de lenguaje?, ¿cuántos y cúales de estos datos deben ser desvinculados a información de identificación? y ¿cuál es la custodia permanente de esta información?

Todas estas preguntas aplican a las entidades públicas y privadas, que han utilizado o utilizan las versiones web o aplicaciones api conectadas a herramientas empresariales.

Aunque OpenAI ha manifestado que no usa dichos datos para alimentar su sistema de “Deep Learning”, si menciona que retiene la información durante 30 días de todos los usuarios en los EE.UU., lo que podría violar normas y/o requisitos de empresas en algunos países.

Un ejemplo claro de que las preocupaciones que ha despertado el uso de ChatGPT son sólo el comienzo, se puede ver en las recientes acciones de la Autoridad Supervisora de Protección Italiana – Garante – GPDP.  Ésta, prohibió inicialmente de manera temporal el acceso a esta herramienta hasta que no obtuviera respuestas de OpenAI en cuanto a problemas como: la falta de verificación de la edad, así como el uso potencial de información que podría compartirse en otros escenarios durante su interacción con otros usuarios ajenos a la propiedad de dicha información.

Aunque Garante cedió a principios de mayo, son muy pocos los países a nivel mundial que cuentan con marcos legales que se puedan adaptar rápidamente al aumento de plataformas de IA generativas.

Esto representa una desaceleración, una pérdida de confianza y acciones más cautelosas por parte de las empresas a la hora de adoptar estas tecnologías emergentes.

En Latinoamérica sólo el 15% de la industria tiene proyectos basados en IA, a comparación de Europa o Asia que alcanzan un 61%, sin embargo, estos proyectos aún son de índole simple, concreta y de poca complejidad tecnológica.  Lo que demuestra que no sólo es un problema tecnológico sino cultural basado en habilidades específicas necesarias para lidiar con las herramientas de IA.

A falta de leyes y reglamentos que faciliten el uso de las IA en cualquier contexto, las empresas latinoamericanas no tienen claro el tema de las responsabilidades que conllevaría basar su productividad o continuidad del negocio usando estas tecnologías, representando así, una reducción en los índices de crecimiento y adaptación a los desafíos de la era digital.

Ahora, una empresa que está incursionando en la utilización de IA para mejorar su negocio, se enfrenta a las siguientes preguntas:

¿Cuál sería la responsabilidad penal de una empresa que se ve inmersa en un delito por acciones generadas por la IA?

¿Cómo adaptar la legislación de derechos de autor a creaciones realizadas mediante IA?

Si el régimen de protección de datos personales en nuestros países aún es un dolor de cabeza, ¿cómo cumpliremos con la norma, basando nuestros negocios en tecnologías emergentes?

Sin respuesta a estas preguntas, será muy complejo que las empresas basen su éxito en la utilización de dichas tecnologías.

Para dar un inicio favorable a estas prácticas, se debe empezar por generar conciencia entre empleados y clientes sobre el manejo de información confidencial, información personal o secretos comerciales que representen un riesgo significativo para el negocio y los titulares de la información.  Se deben tomar medidas razonables para la utilización de dichas herramientas, el material que se puede utilizar en estas plataformas y no infringir los derechos de autor para no terminar en un proceso judicial o peor aún en una sentencia desfavorable de un Tribunal de la Justicia.

Si bien las empresas pueden manejar la tendencia en el uso de herramientas como ChatGPT, es posible que tengan dificultades para limitar los avances de estas: Herramientas que incorporan la funcionalidad en softwares ordinarios en el lugar de trabajo.

Recientemente, Google WorkSpace reveló la incorporación de su IA generativa “Bard” en toda su suite, esto quiere decir que, estará inmersa en su gestor de documentos – Docs, Sheets, Slides – y correo electrónico Gmail.  Al igual que Microsoft, viene incorporando poco a poco su modelo “Copilot” en Word, Excel, PowerPoint y Outlook.

Es por eso que las empresas deben planear con anticipación el acceso total y permanente a la IA, ya que es algo realmente asombroso; teniendo en cuenta que en el futuro cercano, ya no tendrán que buscar alguna herramienta de IA que les te permita ejecutar alguna acción, sino que la IA estará presente siempre en las herramientas que se usan diariamente.

Las empresas deberán contar dentro de su plan el tipo de datos que pueden divulgarse, las medidas de protección, y la confidencialidad o no de la información a utilizar.  Deben tomarse medidas de manera rápida para lograr la evolución, el dinamismo y equilibrio aprovechando las poderosas herramientas de IA y administrando adecuadamente el riesgo.

Scroll to Top