Imprimir Artículo

A

Acelerador (Accelerator). Una clase de microprocesador diseñado para acelerar aplicaciones de IA.

Agentes (Agents). Software que puede realizar ciertas tareas de forma independiente y proactiva sin necesidad de intervención humana, a menudo utilizando un conjunto de herramientas como calculadoras o navegación web.

AGI (Inteligencia Artificial General) (AGI – Artificial General Intelligence). Aunque no es ampliamente acordado, investigadores de Microsoft han definido AGI como inteligencia artificial tan capaz como un humano en cualquier tarea intelectual.

Alineación (Alignment). La tarea de garantizar que los objetivos de un sistema de IA estén alineados con los valores humanos.

ASI (Superinteligencia Artificial) (ASI – Artificial Super Intelligence). Aunque sujeto a debate, ASI se define comúnmente como inteligencia artificial que supera las capacidades de la mente humana.

Atención (Attention) En el contexto de las redes neuronales, los mecanismos de atención ayudan al modelo a enfocarse en partes relevantes de la entrada al producir una salida.

B

Propagación hacia atrás (Backpropagation). Un algoritmo a menudo utilizado para entrenar redes neuronales, refiriéndose al método para computar el gradiente de la función de pérdida con respecto a los pesos en la red.

Sesgo (Bias). Supuestos hechos por un modelo de IA sobre los datos. Un «compromiso de sesgo y varianza» es el equilibrio que debe lograrse entre los supuestos que hace un modelo sobre los datos y la cantidad en que las predicciones de un modelo cambian, dados diferentes datos de entrenamiento. El sesgo inductivo es el conjunto de supuestos que hace un algoritmo de aprendizaje automático sobre la distribución subyacente de los datos.

C

Cadena de pensamiento (Chain of Thought). En IA, este término se usa a menudo para describir la secuencia de pasos de razonamiento que utiliza un modelo de IA para llegar a una decisión.

Chatbot (Chatbot). Un programa de computadora diseñado para simular una conversación humana a través de interacciones de texto o voz. Los chatbots a menudo utilizan técnicas de procesamiento de lenguaje natural para comprender la entrada del usuario y proporcionar respuestas relevantes.

ChatGPT (ChatGPT). Un modelo de lenguaje de IA a gran escala desarrollado por OpenAI que genera texto similar al humano.

CLIP (Preentrenamiento de contraste entre lenguaje e imágenes) (CLIP – Contrastive Language-Image Pretraining). Un modelo de IA desarrollado por OpenAI que conecta imágenes y texto, permitiéndole comprender y generar descripciones de imágenes.

Cómputo (Compute). Los recursos computacionales (como tiempo de CPU o GPU) utilizados para entrenar o ejecutar modelos de IA.

Red neuronal convolucional (CNN) (Convolutional Neural Network). Un tipo de modelo de aprendizaje profundo que procesa datos con una topología similar a una cuadrícula (por ejemplo, una imagen) aplicando una serie de filtros. Este tipo de modelos se usan a menudo para tareas de reconocimiento de imágenes.

D

Aumento de datos (Data Augmentation). El proceso de aumentar la cantidad y diversidad de los datos utilizados para entrenar un modelo agregando copias ligeramente modificadas de los datos existentes.

Aprendizaje profundo (Deep Learning). Un subcampo del aprendizaje automático que se enfoca en entrenar redes neuronales con muchas capas, permitiendo el aprendizaje de patrones complejos.

Difusión (Diffusion) En IA y aprendizaje automático, una técnica utilizada para generar nuevos datos comenzando con un pedazo de datos reales y agregando ruido aleatorio. Un modelo de difusión es un tipo de modelo generativo en el que se entrena una red neuronal. Esto, con el objetivo de predecir el proceso inverso cuando se agrega ruido aleatorio a los datos. Los modelos de difusión se utilizan para generar nuevas muestras de datos similares a los datos de entrenamiento.

Descenso doble (Double Descent). Un fenómeno en el aprendizaje automático en el que el rendimiento del modelo mejora con el aumento de la complejidad, luego empeora y luego vuelve a mejorar.

E

Incrustación (Embedding). La representación de datos en una nueva forma, a menudo un espacio vectorial. Los puntos de datos similares tienen incrustaciones más similares.

Emergencia/Comportamiento emergente («giros bruscos a la izquierda», explosiones de inteligencia) (Emergence/Emergent Behavior). En IA, la emergencia se refiere a un comportamiento complejo que surge de reglas o interacciones simples. Los «giros bruscos a la izquierda» y las «explosiones de inteligencia» son escenarios especulativos, donde el desarrollo de la IA toma cambios repentinos y drásticos, a menudo asociados con la llegada de la AGI.

Aprendizaje de extremo a extremo (End-to-End Learning). Un tipo de modelo de aprendizaje automático que no requiere características diseñadas manualmente. El modelo simplemente se alimenta con datos en bruto y se espera que aprenda de estas entradas.

Sistemas expertos (Expert Systems). Una aplicación de las tecnologías de inteligencia artificial que proporciona soluciones a problemas complejos dentro de un dominio específico.

IA explicable (XAI) (Explainable AI). Un subcampo de la IA enfocado en crear modelos transparentes que proporcionen explicaciones claras y comprensibles de sus decisiones.

F

Ajuste fino (Fine-tuning). El proceso de tomar un modelo de aprendizaje automático preentrenado. Es decir, que ya ha sido entrenado en un conjunto de datos grande y adaptarlo para una tarea ligeramente diferente o dominio específico. Durante el ajuste fino, los parámetros del modelo se ajustan aún más usando un conjunto de datos más pequeño específico para la tarea, permitiéndole aprender patrones específicos de la tarea y mejorar el rendimiento en la nueva tarea.

Propagación hacia adelante (Forward Propagation). En una red neuronal, la propagación hacia adelante es el proceso donde los datos de entrada se alimentan en la red y se pasan a través de cada capa (desde la capa de entrada hasta las capas ocultas y finalmente a la capa de salida) para producir la salida. La red aplica pesos y sesgos a las entradas y utiliza funciones de activación para generar la salida final.

Modelo base (Foundation Model) Modelos de IA grandes entrenados con datos amplios, destinados a ser adaptados para tareas específicas.

G

Red Generativa Antagónica (GAN) (Generative Adversarial Network) Un tipo de modelo de aprendizaje automático utilizado para generar nuevos datos similares a algunos datos existentes. Enfrenta a dos redes neuronales: un «generador», que crea nuevos datos, y un «discriminador» que intenta distinguir esos datos de los datos reales.

IAG Inteligencia Artificia Generativa (Generative AI). Una rama de la IA enfocada en crear modelos que pueden generar contenido nuevo y original, como imágenes, música o texto, basándose en patrones y ejemplos de datos existentes.

GPT (Transformer Generativo Preentrenado) (GPT – Generative Pretrained Transformer). Un modelo de lenguaje de IA a gran escala desarrollado por OpenAI que genera texto similar al humano.

GPU (Unidad de procesamiento gráfico) (GPU – Graphics Processing Unit). Un tipo especializado de microprocesador diseñado principalmente para renderizar imágenes rápidamente para salida a una pantalla. Las GPU también son altamente eficientes para realizar los cálculos necesarios para entrenar y ejecutar redes neuronales.

Descenso de gradiente (Gradient Descent). En aprendizaje automático, el descenso de gradiente es un método de optimización que ajusta gradualmente los parámetros de un modelo basado en la dirección de mayor mejora en su función de pérdida. En la regresión lineal, por ejemplo, el descenso de gradiente ayuda a encontrar la mejor línea de ajuste, refinando repetidamente la pendiente e intercepto de la línea para minimizar los errores de predicción.

H

Alucinar/Alucinación (Hallucinate/Hallucination). En el contexto de la IA, la alucinación se refiere al fenómeno en el que un modelo genera contenido que no se basa en datos reales o es significativamente diferente de la realidad.

Capa oculta (Hidden Layer). Capas de neuronas artificiales en una red neuronal que no están conectadas directamente a la entrada o la salida.

Ajuste de hiperparámetros (Hyperparameter Tuning). El proceso de seleccionar los valores apropiados para los hiperparámetros (parámetros que no se aprenden de los datos) de un modelo de aprendizaje automático.

I

Inferencia (Inference). El proceso de hacer predicciones con un modelo de aprendizaje automático entrenado.

Ajuste de instrucciones (Instruction Tuning). Una técnica en aprendizaje automático donde los modelos se ajustan finamente en función de instrucciones específicas dadas en el conjunto de datos.

L

Modelo de lenguaje grande (LLM) (Large Language Model). Un tipo de modelo de IA que puede generar texto similar al humano y está entrenado en un conjunto de datos amplio.

Espacio latente (Latent Space). En aprendizaje automático, este término se refiere a la representación comprimida de los datos que crea un modelo (como una red neuronal). Los puntos de datos similares están más cerca en el espacio latente.

Función de pérdida (o función de costo) (Loss Function). Una función que un modelo de aprendizaje automático busca minimizar durante el entrenamiento. Cuantifica qué tan lejos están las predicciones del modelo de los valores reales.

M

Aprendizaje automático (Machine Learning). Un tipo de inteligencia artificial que proporciona a los sistemas la capacidad de aprender y mejorar automáticamente a través de la experiencia sin estar explícitamente programados.

Mezcla de expertos (Mixture of Experts). Una técnica de aprendizaje automático en la que se entrenan varios submodelos especializados (los «expertos») y sus predicciones se combinan de una manera que depende de la entrada.

Multimodal (Multimodal). En IA, esto se refiere a modelos que pueden comprender y generar información a través de varios tipos de datos, como texto e imágenes.

N

Procesamiento de lenguaje natural (NLP) (Natural Language Processing). Un subcampo de la IA enfocado en la interacción entre computadoras y humanos a través del lenguaje natural. El objetivo final del PNL es leer, descifrar, comprender y dar sentido al lenguaje humano de una manera valiosa.

NeRF (Campos de radiación neurales) (NeRF – Neural Radiance Fields). Un método para crear una escena 3D a partir de imágenes 2D usando una red neuronal. Se puede usar para renderizado fotorrealista, síntesis de vistas y más.

Red neuronal (Neural Network). Un tipo de modelo de IA inspirado en el cerebro humano. Consiste en unidades conectadas o nodos, llamados neuronas, que están organizados en capas. Una neurona toma entradas, hace algunos cálculos en ellos y produce una salida.

O

Función objetivo (Objective Function). Una función que un modelo de aprendizaje automático busca maximizar o minimizar durante el entrenamiento.

Sobreajuste (Overfitting). Un error de modelado que ocurre cuando una función se ajusta demasiado a un conjunto limitado de puntos de datos, resultando en un mal rendimiento predictivo cuando se aplica a datos no vistos.

P

Parámetros (Parameters). En aprendizaje automático, los parámetros son las variables internas que el modelo usa para hacer predicciones. Se aprenden de los datos de entrenamiento durante el proceso de entrenamiento. Por ejemplo, en una red neuronal, los pesos y sesgos son parámetros.

Pre-entrenamiento (Pre-training). La fase inicial de entrenamiento de un modelo de aprendizaje automático, donde el modelo aprende características, patrones y representaciones generales de los datos sin conocimiento específico de la tarea a la que se aplicará posteriormente. Este proceso de aprendizaje no supervisado, o semi-supervisado, permite que el modelo desarrolle una comprensión fundamental de la distribución de datos subyacente y extraiga características significativas que pueden aprovecharse para el ajuste fino posterior en tareas específicas.

Indicación (Prompt). El contexto o instrucción inicial que establece la tarea o consulta para el modelo.

R

Regularización (Regularization). En aprendizaje automático, la regularización es una técnica utilizada para prevenir el sobreajuste mediante la adición de un término de penalización a la función de pérdida del modelo. Esta penalización desalienta al modelo a depender excesivamente de patrones complejos en los datos de entrenamiento, promoviendo modelos más generalizables y menos propensos al sobreajuste.

Aprendizaje por refuerzo (Reinforcement Learning). Un tipo de aprendizaje automático donde un agente aprende a tomar decisiones tomando acciones en un entorno para maximizar alguna recompensa.

RLHF (Aprendizaje por refuerzo a partir de retroalimentación humana) (RLHF – Reinforcement Learning from Human Feedback). Un método para entrenar un modelo de IA aprendiendo de la retroalimentación dada por humanos sobre las salidas del modelo.

S

Singularidad (Singularity). En el contexto de la IA, la singularidad (también conocida como singularidad tecnológica) se refiere a un punto futuro hipotético en el tiempo cuando el crecimiento tecnológico se vuelve incontrolable e irreversible, lo que lleva a cambios impredecibles en la civilización humana.

Personas Sintéticas – SIPA (Synthetic Interactive Persona Agents). Modelado de personas ficticias basado en perfilado o entrenamiento de atributos y características humanas para generación de personalidades ficticias que impulsan la obtención de perspectivas creadas con inteligencia artificial, emulando el comportamiento humano específico. Sus aplicaciones se encuentran en la investigación, paneles políticos, educación, salud mental, detección de objeciones, perspectivas de crisis, escenarios y comportamiento.

Aprendizaje supervisado (Supervised Learning). Un tipo de aprendizaje automático donde el modelo recibe datos de entrenamiento etiquetados.

IA simbólica (Symbolic AI). Un tipo de IA que utiliza razonamiento simbólico para resolver problemas y representar conocimiento.

T

Temperatura (Temperature). Un parámetro utilizado al generar texto con modelos de lenguaje para controlar la creatividad o aleatoriedad de las predicciones. Una temperatura más alta resultará en predicciones más aleatorias, mientras que una más baja hará que el modelo se adhera más estrictamente a predicciones de alta probabilidad.

TensorFlow (TensorFlow). Una plataforma de aprendizaje automático de código abierto desarrollada por Google que se usa para construir y entrenar modelos de aprendizaje automático.

Tokens (Tokens). En el contexto de modelos de lenguaje de IA, los tokens son las unidades básicas que componen una secuencia de entrada o salida. Por ejemplo, en un modelo de lenguaje entrenado en texto, los tokens serían las palabras individuales. Los modelos de lenguaje operan generando o prediciendo la siguiente secuencia de tokens paso a paso.

Top-k (Top-k). Un método de muestreo utilizado por algunos modelos de lenguaje donde solo se consideran las k tokens con mayor probabilidad en cada paso de generación de texto. Esto restringe el espacio de tokens posibles, lo que hace que el modelo sea menos aleatorio.

Top-p (Top-p). Un enfoque de muestreo donde se seleccionan tokens aleatoriamente de acuerdo a su distribución de probabilidad, pero solo aquellos tokens cuya probabilidad acumulada supera un umbral p. Este es otro método para controlar la diversidad y aleatoriedad del texto generado.

TPU (Unidad de procesamiento de tensores) (TPU – Tensor Processing Unit). Un tipo de microprocesador desarrollado por Google específicamente para acelerar cargas de trabajo de aprendizaje automático.

Datos de entrenamiento (Training Data). El conjunto de datos utilizado para entrenar un modelo de aprendizaje automático.

Transferencia de aprendizaje (Transfer Learning). Un método en aprendizaje automático donde se usa un modelo preentrenado en un nuevo problema.

Transformer (Transformer). Un tipo específico de arquitectura de red neuronal utilizado principalmente para procesar datos secuenciales como lenguaje natural. Los transformers son conocidos por su habilidad para manejar dependencias de largo alcance en los datos, gracias a un mecanismo llamado «atención», que permite al modelo sopesar la importancia de diferentes entradas al producir una salida.

U

Subajuste (Underfitting). Un error de modelado en estadística y aprendizaje automático cuando un modelo estadístico o algoritmo de aprendizaje automático no puede capturar adecuadamente la estructura subyacente de los datos.

Aprendizaje no supervisado (Unsupervised Learning). Un tipo de aprendizaje automático donde el modelo no recibe datos etiquetados de entrenamiento, y en su lugar debe identificar patrones en los datos por sí mismo.

Datos de validación (Validation Data). Un subconjunto del conjunto de datos utilizado en aprendizaje automático que está separado de los conjuntos de entrenamiento y prueba. Se utiliza para ajustar los hiperparámetros (es decir, la arquitectura, no los pesos) de un modelo.

IA explicable (XAI) (Explainable AI). Un subcampo de la IA enfocado en crear modelos transparentes que proporcionen explicaciones claras y comprensibles de sus decisiones.

Aprendizaje sin datos de ejemplo (Zero-shot Learning). Un tipo de aprendizaje automático donde el modelo hace predicciones para condiciones no vistas durante el entrenamiento, sin ningún ajuste fino.

CONOCE NUESTRO PROGRAMA DE PRODUCTIVIDAD Y PROYECTOS DE IAG EXCLUSIVO PARA EQUIPOS EMPRESARIALES

AYUDAREMOS A TU EQUIPO A INTEGRAR DE MANERA EFECTIVA LA INTELIGENCIA ARTIFICIAL GENERATIVA EN LA PLANIFICACIÓN DE TU ORGANIZACIÓN

Artículos Recomendados:

INTELIGENCIA ARTIFICIAL GENERATIVA: EL NUEVO PARADIGMA DE LA PRODUCTIVIDAD

IAG EN LA GESTIÓN DEL TALENTO HUMANO

INTELIGENCIA ARTIFICIAL GENERATIVA, DISCRIMINATIVA Y OTROS ENFOQUES RELEVANTES