48 Términos de IA que Todos Deberían Conocer

En el vertiginoso mundo de la Inteligencia Artificial (IA), los términos y conceptos están en constante evolución, y estar al día puede ser todo un reto. Ya sea que estés iniciando en el campo o que seas un profesional buscando afinar tus conocimientos, entender los términos esenciales es clave para navegar con confianza en el ámbito de la IA. Este artículo reúne 48 términos fundamentales que abarcan desde conceptos básicos hasta términos avanzados, diseñados para ayudarte a comprender mejor esta tecnología transformadora. Acompáñanos en este recorrido por el glosario esencial de IA y fortalece tus conocimientos para aprovechar al máximo las posibilidades que ofrece la Inteligencia Artificial.
- inteligencia artificial general (AGI): Un concepto que sugiere una versión más avanzada de la IA que conocemos hoy, una que puede realizar tareas mucho mejor que los humanos mientras también enseña y avanza sus propias capacidades.
- agente: Sistemas o modelos que exhiben agencia con la capacidad de perseguir acciones de manera autónoma para alcanzar un objetivo. En el contexto de la IA, un modelo agente puede actuar sin supervisión constante, como un coche autónomo de alto nivel. A diferencia de un marco «agéntico», que está en segundo plano, los marcos agentes están al frente, centrados en la experiencia del usuario.
- ética de la IA: Principios destinados a evitar que la IA perjudique a los humanos, logrados mediante medios como determinar cómo los sistemas de IA deben recopilar datos o lidiar con sesgos.
- seguridad de la IA: Un campo interdisciplinario que se ocupa de los impactos a largo plazo de la IA y cómo podría progresar repentinamente hacia una superinteligencia hostil para los humanos.
- algoritmo: Una serie de instrucciones que permite a un programa de computadora aprender y analizar datos de una manera particular, como reconocer patrones, para luego aprender de ellos y realizar tareas por sí solo.
- alineación: Ajustar una IA para producir mejor el resultado deseado. Esto puede referirse a cualquier cosa, desde moderar el contenido hasta mantener interacciones positivas hacia los humanos.
- antropomorfismo: Tendencia de los humanos a dar características humanas a objetos no humanos. En IA, esto puede incluir creer que un chatbot es más humano y consciente de lo que realmente es, como creer que está feliz, triste o incluso es completamente consciente.
- inteligencia artificial (IA): El uso de la tecnología para simular la inteligencia humana, ya sea en programas de computadora o en robótica. Un campo de la informática que tiene como objetivo construir sistemas que puedan realizar tareas humanas.
- agentes autónomos: Un modelo de IA que tiene las capacidades, programación y otras herramientas para realizar una tarea específica. Un coche autónomo es un ejemplo de agente autónomo, ya que tiene entradas sensoriales, GPS y algoritmos de conducción para navegar por la carretera por sí solo. Investigadores de Stanford han demostrado que los agentes autónomos pueden desarrollar sus propias culturas, tradiciones y lenguaje compartido.
- sesgo: En relación con los modelos de lenguaje grande, errores derivados de los datos de entrenamiento. Esto puede resultar en atribuir erróneamente ciertas características a ciertas razas o grupos basándose en estereotipos.
- chatbot: Un programa que se comunica con humanos a través de texto que simula el lenguaje humano.
- ChatGPT: Un chatbot de IA desarrollado por OpenAI que utiliza tecnología de modelo de lenguaje grande.
- computación cognitiva: Otro término para inteligencia artificial.
- aumentación de datos: Remixar datos existentes o agregar un conjunto más diverso de datos para entrenar una IA.
- aprendizaje profundo: Un método de IA, y un subcampo del aprendizaje automático, que utiliza múltiples parámetros para reconocer patrones complejos en imágenes, sonido y texto. El proceso está inspirado en el cerebro humano y utiliza redes neuronales artificiales para crear patrones.
- difusión: Un método de aprendizaje automático que toma un dato existente, como una foto, y añade ruido aleatorio. Los modelos de difusión entrenan sus redes para re-ingenierar o recuperar esa foto.
- comportamiento emergente: Cuando un modelo de IA exhibe habilidades no intencionadas.
- aprendizaje de extremo a extremo (E2E): Un proceso de aprendizaje profundo en el que se instruye a un modelo para realizar una tarea de principio a fin. No está entrenado para realizar una tarea secuencialmente, sino que aprende de las entradas y la resuelve de una vez.
- consideraciones éticas: Conciencia de las implicaciones éticas de la IA y cuestiones relacionadas con la privacidad, uso de datos, equidad, mal uso y otros problemas de seguridad.
- foom: También conocido como despegue rápido o despegue duro. El concepto de que si alguien construye una AGI, ya podría ser demasiado tarde para salvar a la humanidad.
- redes adversariales generativas (GANs): Un modelo de IA generativa compuesto por dos redes neuronales para generar nuevos datos: un generador y un discriminador. El generador crea nuevo contenido y el discriminador verifica si es auténtico.
- IA generativa: Una tecnología generadora de contenido que utiliza IA para crear texto, video, código de computadora o imágenes. A la IA se le alimenta con grandes cantidades de datos de entrenamiento, encuentra patrones y genera respuestas novedosas que a veces pueden ser similares al material fuente.
- Google Gemini: Un chatbot de IA de Google que funciona de manera similar a ChatGPT, pero extrae información de la web actual, mientras que ChatGPT está limitado a datos hasta 2021 y no está conectado a internet.
- barreras de seguridad: Políticas y restricciones impuestas a los modelos de IA para garantizar que los datos se manejen de manera responsable y que el modelo no cree contenido perturbador.
- alucinación: Una respuesta incorrecta de la IA. Puede incluir la generación de respuestas incorrectas pero dichas con confianza como si fueran correctas. Las razones de esto no son completamente conocidas. Por ejemplo, al preguntar a un chatbot de IA: «¿Cuándo pintó Leonardo da Vinci la Mona Lisa?», podría responder incorrectamente que «Leonardo da Vinci pintó la Mona Lisa en 1815», lo cual es 300 años después de su verdadera fecha.
- inferencia: El proceso que usan los modelos de IA para generar texto, imágenes y otro contenido a partir de nuevos datos, deduciendo de sus datos de entrenamiento.
- modelo de lenguaje grande (LLM): Un modelo de IA entrenado con grandes cantidades de datos de texto para comprender el lenguaje y generar contenido novedoso en un lenguaje similar al humano.
- aprendizaje automático (ML): Un componente de la IA que permite a las computadoras aprender y hacer mejores predicciones sin programación explícita. Puede acoplarse con conjuntos de entrenamiento para generar nuevo contenido.
- Microsoft Bing: Un motor de búsqueda de Microsoft que ahora puede usar la tecnología que impulsa ChatGPT para dar resultados de búsqueda impulsados por IA. Es similar a Google Gemini al estar conectado a internet.
- IA multimodal: Un tipo de IA que puede procesar múltiples tipos de entradas, incluidos texto, imágenes, videos y voz.
- procesamiento de lenguaje natural (NLP): Una rama de la IA que usa aprendizaje automático y profundo para dar a las computadoras la capacidad de comprender el lenguaje humano, a menudo utilizando algoritmos de aprendizaje, modelos estadísticos y reglas lingüísticas.
- red neuronal: Un modelo computacional que se asemeja a la estructura del cerebro humano y está destinado a reconocer patrones en los datos. Consiste en nodos interconectados, o neuronas, que pueden reconocer patrones y aprender con el tiempo.
- sobreajuste: Error en el aprendizaje automático cuando funciona demasiado cerca de los datos de entrenamiento y puede solo identificar ejemplos específicos en esos datos, pero no nuevos.
- clips de papel: La teoría del Maximizador de Clips de Papel, acuñada por el filósofo Nick Boström de la Universidad de Oxford, es un escenario hipotético donde un sistema de IA creará la mayor cantidad posible de clips de papel. En su objetivo de producir la máxima cantidad de clips de papel, un sistema de IA consumiría o convertiría todos los materiales disponibles para lograr su objetivo. Esto podría incluir desmantelar otras máquinas para producir más clips de papel, máquinas que podrían ser beneficiosas para los humanos. La consecuencia no intencionada de este sistema de IA es que podría destruir a la humanidad en su afán por hacer clips de papel.
- parámetros: Valores numéricos que dan estructura y comportamiento a los modelos de lenguaje grande, permitiéndoles hacer predicciones.
- Perplexity: El nombre de un chatbot y motor de búsqueda impulsado por IA, propiedad de Perplexity AI. Utiliza un modelo de lenguaje grande, como los encontrados en otros chatbots de IA, para responder preguntas con respuestas novedosas. Su conexión con internet también le permite dar información actualizada y recopilar resultados de toda la web. Perplexity Pro, un nivel pago del servicio, también está disponible y utiliza otros modelos, incluidos GPT-4o, Claude 3 Opus, Mistral Large, el modelo de código abierto LlaMa 3 y su propio Sonar 32k. Los usuarios Pro también pueden cargar documentos para su análisis, generar imágenes e interpretar código.
- indicación (prompt): La sugerencia o pregunta que ingresas en un chatbot de IA para obtener una respuesta.
- encadenamiento de indicaciones: La capacidad de la IA para usar información de interacciones anteriores y dar forma a respuestas futuras.
- loro estocástico: Una analogía de los modelos de lenguaje grande que ilustra que el software no tiene una comprensión mayor del significado detrás del lenguaje o del mundo que lo rodea, sin importar cuán convincente sea la salida. La frase se refiere a cómo un loro puede imitar palabras humanas sin entender el significado detrás de ellas.
- transferencia de estilo: La capacidad de adaptar el estilo de una imagen al contenido de otra, permitiendo que una IA interprete los atributos visuales de una imagen y los use en otra. Por ejemplo, tomar el autorretrato de Rembrandt y recrearlo al estilo de Picasso.
- temperatura: Parámetros establecidos para controlar cuán aleatoria es la salida de un modelo de lenguaje. Una mayor temperatura significa que el modelo toma más riesgos.
- generación de imágenes a partir de texto: Crear imágenes basadas en descripciones textuales.
- tokens: Pequeños fragmentos de texto escrito que los modelos de lenguaje procesan para formular sus respuestas a tus indicaciones. Un token equivale a cuatro caracteres en inglés, o aproximadamente tres cuartos de una palabra.
- datos de entrenamiento: Los conjuntos de datos que se utilizan para ayudar a los modelos de IA a aprender, incluidos texto, imágenes, código o datos.
- modelo transformador: Una arquitectura de red neuronal y modelo de aprendizaje profundo que aprende contexto al rastrear relaciones en los datos, como en oraciones o partes de imágenes. Así, en lugar de analizar una oración palabra por palabra, puede mirar toda la oración y comprender el contexto.
- prueba de Turing: Nombrada en honor al famoso matemático y científico informático Alan Turing, prueba la capacidad de una máquina para comportarse como un humano. La máquina pasa si un humano no puede distinguir la respuesta de la máquina de la de otro humano.
- IA débil, también conocida como IA estrecha: IA que se centra en una tarea particular y no puede aprender más allá de su conjunto de habilidades. La mayoría de la IA actual es IA débill.
- aprendizaje de cero ejemplos: Una prueba en la que un modelo debe completar una tarea sin haber recibido los datos de entrenamiento requeridos. Un ejemplo sería reconocer un león habiéndose entrenado solo en tigres.
Inspirado en el artículo original de CNET, titulado ChatGPT glossary: 48 AI terms that everyone should know, hemos traducido y adaptado este completo glosario al español, con el objetivo de ofrecer una guía clara y accesible sobre los términos más importantes en el ámbito de la IA.
Para leer el artículo original en inglés, visita CNET.