¿Cómo funciona la inteligencia artificial? ¿Como elaboran chatgpt o copilot las respuestas a nuestras preguntas? En palabras sencillas, podemos decir que cada palabra o idea que mencionamos en nuestras preguntas se convierte en un vector, es decir, una lista larga de valores numéricos (por ejemplo, 1.2, 0.7, 0.4, etc).

Esos números indican su posición en un espacio semántico, donde palabras con significados parecidos están cerca entre sí. Así, “abogado”, “derecho” y “ley” quedarían próximos. “Actualidad”, “noticias” y “política”, en otra región. Cuando el algoritmo de una inteligencia artificial “recuerda” algo, no guarda texto literal. Lo que conserva son vectores agregados que resumen rasgos de contexto de los usuarios más una etiqueta interpretativa (por ejemplo: usuario: jurista, interesado en IA y derecho).

En resumen: el sistema de almacenamiento interno de una inteligencia artificial no está hecho de palabras, sino de geometría del significado. Y esto a mí, una enamorada de las matemáticas me parece un concepto casi poético, porque, de algún modo, se trata de números que dibujan la forma de lo que para el usuario es importante.

En otras palabras, el lenguaje de la IA no es lineal: es geométrico. Y cuando un modelo se transfiere o se licencia, como regula el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial, no se transmite solo un conjunto de datos sino una arquitectura del significado, una forma de “interpretar” el mundo. Por eso la transferencia de un algoritmo puede ser entendida como la cesión de una geometría semántica con impacto jurídico y ético.

Cada modelo de IA tiene su propia estructura interna, su “geometría del significado”, porque esa geometría depende de su entrenamiento, de los datos, de la arquitectura y del modo en que se ajustaron.

Entre los factores que determinan esta singularidad podemos mencionar:

  • El corpus de entrenamiento: textos legales, filosóficos o técnicos generan mapas distintos del significado.
  • El idioma y el contexto cultural: un modelo entrenado principalmente en inglés no asocia “alma” con lo mismo que uno entrenado en español o japonés.
  • El ajuste fino: los valores de los vectores cambian cuando el modelo se adapta a una tarea o estilo particular.

 

Las diferencias entre grandes modelos comerciales son menores de lo que podría parecer, porque muchos se entrenan con corpus de datos coincidentes y bajo arquitecturas similares.

Los modelos de lenguaje actuales (ChatGPT, Gemini, Claude, etc.) comparten en gran medida:

  • Textos masivos de internet, Wikipedia, literatura pública, noticias, foros etc.
  • Estructuras lingüísticas globalizadas (el inglés domina los datos).
  • Arquitecturas parecidas y objetivos de entrenamiento similares (predecir la siguiente palabra).

 

Por tanto, sus mapas semánticos globales se parecen mucho. De todas formas, aunque el corpus sea similar, los modelos pueden diferir en:

  • Selección y filtrado de datos. Cada plataforma limpia, pondera o elimina conjuntos distintos (por sesgo, copyright, idioma, etc).
  • Ponderación del entrenamiento. Un cambio de peso o de orden de aprendizaje modifica el espacio vectorial final.
  • Ajuste fino posterior. Cuando se adaptan a tareas (razonamiento, estilo, etc) los vectores se reorganizan y cambian las “distancias semánticas” entre conceptos morales, emocionales o jurídicos.

 

Esto significa que el modelo puede llegar a otro punto de equilibrio, a una versión un poco distinta pero lo bastante diferente como para cambiar su “forma de hablar”.

Es decir, dos modelos pueden coincidir en la relación entre “contrato” y “obligación”, pero diferir en la cercanía entre “justicia” y “castigo”, porque uno ha leído más filosofía continental y otro más derecho anglosajón. El resultado sería que ambos entienden el lenguaje jurídico pero su tono moral y conceptual no es el mismo.

En definitiva, desde el punto de vista del Reglamento de IA, transferir o licenciar un modelo no es solo copiar software, es ceder una interpretación semántica del mundo, producto de su estructura particular. En este sentido, la verdadera responsabilidad en la inteligencia artificial no está solo en el código, sino en la trazabilidad y supervisión del modelo que se transfiere, porque cada modelo encierra una forma propia de representar el mundo y auditarlo es la única manera de garantizar que esa interpretación sea ética, verificable y justa.

De acuerdo