Skip to content
Puede usar nuestro buscador para encontrar información sobre los productos y soluciones de InterSystems, las oportunidades de desarrollo profesional, los casos de uso, novedades y mucho más.

Siete pautas para el uso de la IA generativa

Inteligencia artificial

El mundo de la inteligencia artificial está “on fire”; no paran de aparecer noticias en los medios. La inteligencia artificial generativa como ChatGPT representa un salto importante en el avance de la inteligencia artificial. Antes, la inteligencia artificial manipulaba los datos. Ahora, es capaz de manipular también nuestro lenguaje, la característica principal que separa los humanos del resto de los seres vivos.

ChatGPT, el programa que permite hacer preguntas sobre cualquier asunto y que te genera respuestas coherentes, ha arrasado en las noticias. Puede escribir relatos, poemas, responde a preguntas de exámenes, puede resumir textos, etc. Casi se puede decir que ChatGPT es capaz de pasar la prueba de Turing, que busca determinar si una máquina puede sostener una conversación en lenguaje natural de manera tan convincente que sea indistinguible de un ser humano.

Pero, por otro lado, también hemos visto que ChatGPT es capaz de inventar cosas que no son verdaderas; las llamadas “alucinaciones”. Esto no es un problema para una persona que colabora con ChatGPT para producir un texto en un ámbito que domina bien, ya que será capaz de distinguir la verdad de las “mentiras”. Pero, sí es un problema si el texto, por ejemplo, es generado por un alumno de ESO que tiene que escribir un trabajo sobre el cambio climático.

Además, ChatGPT podría generar una enorme cantidad de desinformación (noticias falsas) en muy poco tiempo. En manos equivocadas podría causar serios problemas en las sociedades hasta influir en elecciones democráticas. ChatGPT es tan bueno que hasta los profesionales jurídicos o médicos podrían sentir una tentación de usarlo para su trabajo, con todas las consecuencias y riesgos.

Con todos estos retos, y los muchos más que no he mencionado aquí, han surgido varias iniciativas que proponen poner límites a la inteligencia artificial generativa.

Propuestas para limitar el riesgo de sistemas de IA generativa

La primera organización que ha reconocido los riesgos en el uso de la inteligencia artificial generativa ha sido la Unión Europea. En la última versión de su propuesta para la regulación europea de la inteligencia artificial, ha añadido una categoría nueva llamada foundation model: un modelo de IA que se entrena con datos amplios a escala y puede adaptarse a una amplia gama de tareas.

Un 'modelo fundacional' es un modelo de IA que se entrena con datos amplios a escala, está diseñado para la generalidad de la salida y se puede adaptar a una amplia gama de tareas distintivas.

Estos tipos de sistemas de inteligencia artificial tienen que cumplir con una serie de requisitos que se parecen a los de sistemas de alto riesgo, según la definición de la Unión Europea.

La segunda iniciativa, que ha atraído mucha atención, ha sido la petición del Future of Life Institute para una pausa de seis meses en el desarrollo de todos los sistemas de IA generativa. En concreto, una moratoria de seis meses en modelos más potentes que GPT4, el motor que está por debajo de ChatGPT. La carta, que ha sido firmada por cerca de 32.000 personas, a fecha de hoy, dice que la inteligencia artificial puede provocar profundos cambios en nuestras vidas y en el planeta, y que estos cambios requieren una reflexión y un plan. Mientras que este plan no exista, no se debería continuar el desarrollo de una IA generativa más potente que la que existe actualmente. La carta ha sido polémica porque varias personas al principio firmaron, pero luego se quitaron.

Pausar los grandes experimentos de IA: una carta abierta
Hacemos un llamamiento a todos los laboratorios de IA para que pausen inmediatamente, durante al menos 6 meses, el entrenamiento de los sistemas de IA más potentes que GPT-4.

Otra petición ha venido de Eliezer Yudkowsky, diciendo que una pausa no es suficiente y que hay que parar todo el desarrollo de la IA generativa, aludiendo al riesgo de una súper inteligencia, mejor que la de un humano, que tendrá consecuencias catastróficas para la humanidad; es decir, su extinción. 

La moratoria sobre nuevos grandes entrenamientos debe ser indefinida y mundial. No puede haber excepciones, incluso para gobiernos o militares.

La desmitificación de la IA generativa

Ante tantas peticiones de poner límites a la inteligencia artificial generativa no viene mal explicar cómo funciona la tecnología, qué es lo que hace y qué no puede hacer.

Los programas como ChatGPT se basan en las llamadas Large Language Models (LLMs), modelos de lenguaje muy grandes (fundacionales), que se entrenan con una gigantesca cantidad de texto obtenido desde Internet, libros digitales, bibliotecas digitales, prensa, etc., etc.

El entrenamiento consiste en, dada una frase, enmascarar una palabra y pedir al modelo que intente predecir cuál es la palabra que mejor se ajusta (fill the mask). Este método de aprendizaje automático se llama “auto supervisado”. Al realizar esto muchísimas veces, el modelo aprende la estadística de un lenguaje natural, es decir, el modelo aprende qué palabras van con qué otras palabras. La sorpresa ha sido que estos modelos son capaces de realizar muchas tareas de lengua que antes requerían un entrenamiento específico.

Es importante entender, entonces que, aunque el resultado del Chat GPT es impresionante, no entiende lo que le preguntas ni lo que responde. Simplemente, predice las palabras que vienen después de la consulta (prompt). Y, a partir de este conocimiento, también es fácil entender por qué hay alucinaciones o “mentiras”: ChatGPT no recupera información, sino que predice qué palabras vienen después. Si te fijas, puedes observar que todas las alucinaciones o mentiras van sobre la misma temática que la verdad y esto es, como hemos visto, porque la predicción se basa en un modelo estadístico del lenguaje.

Las pautas

Con este nuevo conocimiento de la inteligencia artificial generativa, ¿cómo tenemos que interpretar las diversas peticiones de poner límites a la inteligencia artificial?

Antes de todo, tengo que decir que es bueno e importante pensar siempre en las posibles consecuencias negativas, aunque no intencionadas, del uso de la inteligencia artificial. Se denomina “el uso responsable de la inteligencia artificial desde el diseño”. Esta metodología implica que, para cada sistema de inteligencia artificial que queremos aplicar a un dominio concreto, tenemos que hacernos las preguntas adecuadas para estimar, de antemano, cuál podría ser el impacto negativo en las personas, la sociedad o el planeta. Un ejemplo de estas preguntas se puede ver en un cuestionario desarrollado por la GSMA. Las peticiones para frenar el desarrollo son manifestaciones de estas reflexiones, que son positivas e importantes.

Otro punto que tener en cuenta es que las consecuencias del uso de la IA generativa dependen de las personas u organizaciones que la aplican y no de la tecnología en sí. Por eso, la Unión Europea pone foco en el uso de la tecnología.

La moratoria de seis meses para pausar todo el desarrollo de modelos más potentes que GPT4 no es muy factible ni efectivo. Quizás algunos lo respetarían, pero otros no. Parece que parte de la hipótesis de que casi estamos llegando a la inteligencia artificial general (artificial general intelligence), la inteligencia que equivale a la inteligencia humana en todos sus aspectos. Pero, como hemos visto, estamos hablando de un modelo estadístico, aunque gigantesco. Este modelo no tiene sentido común, no sabe razonar ni sabe de relaciones causales, aunque parezca que tenga todo este conocimiento. Pero el mero hecho de que lo manifieste, no quiere decir que lo tenga. La petición de parar todo el desarrollo de la LLMs, evitando la creación de una súper inteligencia, carece de sentido y se basa en la ciencia ficción, que vemos en muchas películas.

Lo que sí tiene mucho sentido es lo que propone la Unión Europea para mitigar los posibles riesgos del uso de la inteligencia artificial en 2023, como los sesgos y la posible discriminación, la falta de supervisión humana y la necesidad de contar con algoritmos interpretables.

Para seguir avanzando con el desarrollo y uso de la inteligencia artificial, ante este panorama incierto de la IA generativa, aquí hay siete pautas prácticas para las empresas:

1. Para cualquier uso de la inteligencia artificial, aplica una metodología para el uso responsable de la inteligencia artificial desde el diseño.

2. Aprende a estimar el riesgo de una aplicación de inteligencia artificial analizando el posible daño que puede generar, en términos de gravedad, escala y probabilidad.

3. No aplicar la IA generativa, como ChatGPT, a casos de uso de alto riesgo. Si quieres experimentar, mejor hacerlo con casos de uso de poco riesgo como por ejemplo hacer resúmenes de textos no críticos.

4. Si aún necesitas aplicar la IA generativa a un caso de uso de alto riesgo, ten en cuenta todos los posibles requisitos que vienen de la futura regulación europea.

5. Nunca compartas información confidencial con sistemas como ChatGPT, ya que estás compartiendo esta información con terceros. Empresas más avanzadas pueden tener una instancia propia que evita este riesgo.

6. Cuando usas ChatGPT para generar contenido, siempre añade una nota de transparencia. Es importante que tus lectores conozcan esta situación. Si has generado el contenido en colaboración con ChatGPT, deja esto también claro a través de una nota. La persona o empresa que utiliza ChatGPT siempre es responsable del resultado (rendición de cuentas).

7. Y, por último, no usar la IA generativa para usos ilícitos como la generación de noticias falsas o la suplantación de personas.

En resumen, el hecho de que cada vez más organizaciones hagan reflexiones sobre los posibles impactos negativos del uso de la inteligencia artificial es importante, necesario y positivo. Pero no deberíamos recurrir a películas de ciencia ficción y parar todo.