Vaya más allá de la jerga para sacar el máximo partido a la IA
El lenguaje de la IA evoluciona constantemente, por lo que puede resultar complicado mantenerse al día. Este glosario se ha diseñado para guiarle a través de los términos clave de IA que debe conocer cuando trabaja con datos y análisis.
Asistente de IA (AI Copilot)
Algoritmo
Analítica aumentada
Integración de datos aumentada
Calidad de datos aumentada
Clasificación automática
AutoML
Información automatizada
Equilibrado
Bias
Ciudadano científico de datos
Clasificación
BI cognitivo
IA conversacional
Data Cleaning
Data Foundation
Gobernanza de datos
Etiquetado de datos
Data Preparation
Data Provenance
Data Quality
Inteligencia de calidad de datos
Ciencia de datos
Aprendizaje profundo
Experimento
IA explicable
Previsión
Modelo fundacional
IA generativa
Análisis de factores clave
Modelo de lenguaje de gran tamaño (LLM)
De bajo código o sin código
Aprendizaje automáticob (Machine Learning/ML)
Creación de modelos
Implementación de modelos
Degradación del modelo
Entrenamiento de modelos
Consultas en lenguaje natural (CLN)
Red neuronal
IA predictiva
Analítica predictiva
Prompt/Indicación
Regresión
Aprendizaje autosupervisado y aprendizaje no supervisado
Análisis de sentimientos
Valores de Shapley
Datos estructurados y no estructurados
Aprendizaje supervisado
Datos sintéticos
Análisis de series de tiempo
Datos de entrenamiento
Escenarios hipotéticos
Asistente de IA (AI Copilot)
Oye Siri, ¿qué es un asistente de IA? Estas soluciones de IA pueden entender y responder a instrucciones en lenguaje natural. La interfaz de apariencia humana significa que la gente puede dar indicaciones de voz para que el asistente realice tareas y ofrezca respuestas personalizadas. Los asistentes de IA son cada vez más comunes y se han integrado en muchos dispositivos inteligentes modernos, como Alexa de Amazon, Siri de Apple, Copilot de Microsoft y el Asistente de Google. Estos son la primera forma en que los consumidores interactúan con la IA.
Algoritmo
Cada modelo de IA necesita una ruta o conjunto de instrucciones que seguir. Estos son los algoritmos, que indican a un modelo cómo debe operar y determinan su capacidad para aprender. Lo hacen tomando datos de entrenamiento y usándolos como base sobre la cual ejecutar tareas. A medida que completa más tareas, el algoritmo puede aprender lo cerca que los resultados están del resultado deseado y refinar el proceso en consecuencia. Dado que los algoritmos pueden autorefinarse de esta forma, los programadores deberán vigilarlos de cerca para comprobar que actúan como se espera de ellos y evitar que aparezcan sesgos. En el aprendizaje automático y la IA actuales, hay muchos algoritmos distintos que realizan diferentes tareas. Los científicos de datos y los ingenieros de aprendizaje automático deben entender cómo y por qué aplicar un determinado enfoque algorítmico en función del problema, los datos y los objetivos que se tengan.
Analítica aumentada
La analítica aumentada permite a los usuarios de datos interactuar con información de una manera que mejora el conocimiento humano. Según Gartner, esto implica el "uso de tecnologías de habilitación como el aprendizaje automático y la IA para ayudar con la preparación de datos, la generación de conocimientos y la explicación de conocimientos." Estos habilitadores aumentan el nivel de las capacidades analíticas, mejorando la profundidad con la que las personas pueden explorar los datos. En última instancia, esto amplía la capacidad humana de interactuar con datos a nivel contextual y permite a un grupo más amplio de gente usar herramientas analíticas.
Integración de datos aumentada
Las tareas de integración de datos suelen demandar mucho tiempo a los profesionales de los datos. Aunque son importantes, son tareas de valor relativamente bajo que no sacan el mayor partido a las habilidades avanzadas de estos profesionales. La integración de datos aumentada utiliza la IA para acelerar estos procesos y liberar de la carga a los expertos de datos. Según Gartner, automatizar la gestión de los datos puede recortar el tiempo empleado en procesos de datos manuales hasta en un 45 por ciento. Esto permite a las organizaciones escalar sus operaciones y posibilita que los expertos de datos se centren en tareas más complejas o vitales.
Calidad de datos aumentada
La calidad de los datos es un componente crucial de las iniciativas de gobernanza de datos de una organización; mide la precisión, la exhaustividad y los sesgos de los conjuntos de datos, e indica si son aptos para los fines requeridos. Sin validar la calidad de la información que se analiza, los sistemas automatizados no funcionarán como deben. La introducción de la automatización en este proceso (o la calidad de datos aumentada) acelera las cosas. Resulta especialmente útil para validar grandes conjuntos de datos, tarea que puede llevar mucho tiempo si se realiza manualmente. Esto permite aprovechar lo mejor de ambos mundos: datos de alta calidad y una mayor eficacia para realizar tareas esenciales pero potencialmente extensas.
Clasificación automática
Los procesos analíticos no siempre consisten en revelar conocimientos granulares a partir de conjuntos de datos completos. Para las necesidades de algunas organizaciones, podría bastar con ordenar documentos u otros activos en categorías más amplias. Al igual que el análisis de sentimientos, la IA puede proporcionar mejoras en forma de clasificación automática. Basándose en criterios predefinidos, la clasificación automática analiza documentos y asigna etiquetas relevantes sin necesidad de ayuda humana.
Esto se puede personalizar en función de las necesidades de la organización adaptando las palabras clave que analiza el modelo. La clasificación automática es enormemente beneficiosa para la gestión de contenido, ya que permite a los usuarios ordenarlo rápidamente en categorías, y resulta fundamental para liberar el potencial de las búsquedas mediante IA.
AutoML
AutoML™ es una solución diseñada para ayudar a los equipos analíticos a usar el aprendizaje automático (ML, Machine Learning) sin necesidad de tener conocimientos expertos. Gartner describe AutoML como la automatización de las tareas de preparación de datos, ingeniería de características e ingeniería de modelos, tres tareas que, tradicionalmente, exigen habilidades específicas para llevarse a cabo. Capacita a los desarrolladores con escasa experiencia en ML para completar tareas de gran complejidad y entrenar modelos de alta calidad específicos para sus necesidades empresariales, lo que les ayuda a pasar del análisis histórico al predictivo en la mayoría de casos de uso.
Información automatizada
La información automatizada permite a las organizaciones tener lo mejor de dos mundos. Esto significa que, mediante el empleo de IA, los usuarios de datos se benefician de recibir una inteligencia fácilmente comprensible y práctica a partir de grandes volúmenes de datos, sin necesidad de realizar análisis manuales que requieren experiencia técnica.
En concreto capacita a empleados sin perfil técnico para tomar decisiones de negocio más rápidas. Las soluciones de información automatizada pueden sustentarse en el aprendizaje automático, el procesamiento de lenguaje natural o en análisis estadísticos para identificar hallazgos clave y acciones recomendadas de forma digerible.
Equilibrado
En ocasiones, los conjuntos de datos contienen características no equilibradas, y una clase es muy superior en número a las demás. Esto se denomina clase desequilibrada, y es necesario tenerlo en cuenta en los procesos de aprendizaje automático. El proceso de equilibrado es muy habitual entre los científicos de datos; si se dejase un conjunto de datos desequilibrado, podría tener un impacto significativo en la precisión del análisis, o resultar en modelos de IA sesgados. Hay varios métodos que permiten corregir este problema, como el remuestreado o la generación de datos sintéticos. Elegir el más adecuado depende de las características concretas del conjunto de datos.
Bias
Bias in AI is like a hidden trap that can skew your model’s predictions and decisions. It creeps in from various sources, including the training data, the algorithms, or even how the AI is deployed. If your training data has biases, such as underrepresenting certain groups, your AI will likely repeat those biases. That’s why it's essential for data scientists to spot and fix bias using techniques like balanced datasets and fairness checks, ensuring your AI operates fairly and transparently.
Ciudadano científico de datos
La analítica, la IA y los datos ya no son coto exclusivo de especialistas técnicos. Está claro que una variedad cada vez mayor de sectores y puestos usan los datos para aportar información a su trabajo. Hay un nuevo rol emergente, el de "ciudadano científico de datos", que hace referencia a analistas de negocio que aplican la ciencia de datos a su trabajo sin ser especialistas en codificación o estadística.
Por ejemplo, los ciudadanos científicos de datos tienden a estar más centrados en la parte de negocio, reduciendo así la brecha entre el ámbito de la analítica y la toma de decisiones estratégicas. Amplifican el trabajo de los científicos de datos, ya que usan sus conocimientos para ayudar a las organizaciones a tomar decisiones rutinarias y permiten que los especialistas se centren en el trabajo más técnico.
Clasificación
El proceso de clasificación usa el aprendizaje automático para automatizar la ordenación básica de datos o documentos en grupos predefinidos. Imagine echar un montón de calcetines desparejados a una secadora y que, al abrirla más tarde, estén automáticamente emparejados y ordenados por categorías: de deporte, para el trabajo e informales. Este ejemplo ilustra lo que son capaces de hacer los algoritmos de clasificación. Para funcionar de forma correcta, es necesario entrenar a los modelos para que sepan cómo asignar determinadas etiquetas o palabras clave a las categorías correctas. Esto les enseña a clasificar de manera autónoma futuros conjuntos de datos en la categoría correspondiente. En la práctica, los algoritmos de clasificación proporcionan a los negocios una forma muy potente de conseguir conocimientos predictivos y detectar patrones ocultos.
BI cognitivo
Para capacitar a las organizaciones a la hora de adoptar la toma de decisiones basada en datos, el BI cognitivo combina procesos de inteligencia empresarial (BI) tradicionales con tecnologías de computación cognitiva, como la IA y el procesamiento de lenguaje natural. Esta combinación de tecnologías transforma el modo en que se usan los datos en las organizaciones, desde el marketing al departamento financiero, y las dota de conocimientos impulsados por datos que resultan accesibles, prácticos y valiosos.
IA conversacional
Para que la IA tenga aplicaciones de consumo masivas, debe poder entender, procesar y simular el lenguaje humano. Aquí es donde entra en juego la IA conversacional, un tipo de modelo que permite a las personas establecer un diálogo con la IA. Los equipos de atención al cliente usan de forma habitual la IA conversacional en forma de chatbots que pueden responder a preguntas y solucionar problemas buscando palabras clave y ofreciendo respuestas predefinidas. Esta tecnología también es la base de la analítica conversacional, que permite a las organizaciones aprender de las interacciones con los clientes comprendiendo y derivando datos procedentes de las conversaciones humanas.
Data Cleaning
Data cleaning is like giving your data a good scrub, getting rid of errors and inconsistencies. This includes removing duplicates, fixing inaccuracies, handling missing values, and ensuring uniform formats. Clean data is crucial for accurate AI models, as if your data is dirty it can result in misleading insights. By keeping your data clean, you ensure it’s ready for analysis, and your AI models can deliver trustworthy results.
Data Foundation
Think of a data foundation as the rock-solid base that holds up all your AI efforts. It covers everything from data collection and storage to management and analysis. This includes having strong data governance, top-notch data pipelines, secure storage, and efficient processing tools. With a robust data foundation, your data is accurate, consistent, and ready for action, helping you unlock AI’s full potential for smarter insights and better decisions.
Gobernanza de datos
Para que las analíticas de datos resulten eficaces, las organizaciones deben establecer reglas y estándares internos que determinen cómo se recopilan, almacenan, procesan y desechan esos datos. El término general que abarca esta responsabilidad es gobernanza de datos. Además de ofrecer más garantías sobre la seguridad de los datos, disponer de estructuras de gobernanza en vigor demuestra que los datos que almacena una organización son fiables y no se usan de modo inadecuado. El rol cada vez más importante de los datos en las estrategias empresariales ha llevado a desarrollar normativas de privacidad de datos que las empresas deben cumplir, lo que hace que la gobernanza de datos resulte cada vez más fundamental.
Etiquetado de datos
El etiquetado de datos es el proceso por el que algoritmos de aprendizaje automático hacen que los datos sean comprensibles y se puedan usar; para ello, añaden etiquetas descriptivas o informativas. Al etiquetar los datos, se puede entrenar a los algoritmos para realizar predicciones o clasificaciones basadas en dicha información. Por su parte, el algoritmo puede empezar a realizar predicciones precisas cuando recibe nuevos datos sin etiquetar.
Data Preparation
Data preparation is the magic that turns raw data into gold. It involves cleaning, structuring, and enriching raw data to make it ready for AI model training. Proper data preparation ensures your data is accurate and consistent, setting the stage for high-performing AI. Investing in thorough data prep means better analytical insights and more effective AI-driven results.
Data Provenance
Data provenance is like a detailed diary for your data, tracking its journey from origin to final use. It records where the data comes from, how it’s transformed, and how it’s used, ensuring transparency and accountability. Knowing your data’s history is crucial for verifying its quality, staying compliant with regulations, and simplifying troubleshooting. By keeping detailed records of data provenance, you can trust your data and the AI models built on it.
Data Quality
Data quality is all about making sure your data is up to scratch – accurate, complete, consistent, reliable, and timely. High-quality data is the key to AI models that deliver valid and actionable insights. If your data is flawed, your AI's predictions will be too. That’s why organizations need to practice good data hygiene, with regular cleaning, validation, and monitoring to keep their data in top shape and ensure their AI is spot on.
Inteligencia de calidad de datos
Un modelo de IA es tan bueno como los datos que lo alimentan. Si el modelo se ha entrenado con datos de calidad deficiente, puede arrojar resultados imprecisos y poco fiables. La inteligencia de calidad de datos es la piedra angular de cualquier buena estrategia de gestión de datos cuando las organizaciones analizan la solidez de sus datos y las prácticas de gestión de los mismos. Resulta fundamental que las acciones se lleven a cabo usando estos conocimientos porque, sin ellos, no se puede garantizar que las decisiones impulsadas por datos se basen siempre en información fiable.
Ciencia de datos
Extraer conocimientos y predicciones valiosos a partir de datos (especialmente de grandes volúmenes de datos) requiere combinar múltiples disciplinas, como la estadística, la informática y las matemáticas. Esta combinación es la ciencia de datos, la fórmula que convierte los datos sin procesar en información que se puede emplear para identificar tendencias y tomar decisiones de manera informada.
Los profesionales de la ciencia de datos, o científicos de datos, suelen tener habilidades de datos avanzadas, pero pueden actuar en una gran variedad de situaciones, desde la recopilación de datos al modelado o la implantación de un modelo de IA en un contexto de empresa. Se trata de una disciplina que ha encontrado acogida rápidamente en muchos sectores, ya que las organizaciones exploran cómo pueden usar los datos de forma más eficaz para tomar decisiones bien fundamentadas.
Aprendizaje profundo
Todos los tipos de IA intentan imitar la toma de decisiones del cerebro humano, pero algunas subdisciplinas exigen más inspiración que otras. Por ejemplo, el aprendizaje profundo es un tipo de aprendizaje automático basado en redes neuronales, tanto en su estructura como en su uso de capas interconectadas de neuronas artificiales para procesar los datos y aprender de ellos.
Según Forrester, la mejor aplicación de la técnica es la de "crear, entrenar y probar redes neuronales que predicen resultados o clasifican datos no estructurados de forma probabilística". En la práctica, esto significa que el aprendizaje profundo es la base de los sistemas de reconocimiento de imágenes y voz, traducción de idiomas, conducción autónoma y recomendaciones.
Experimento
Un experimento es el proceso que se utiliza para entrenar, evaluar y perfeccionar los modelos de aprendizaje automático. Están altamente estructurados, lo que permite a científicos de datos y usuarios de AutoML organizar y administrar las ejecuciones de aprendizaje automático. Este ejercicio suele exigir varias iteraciones para que el modelo tenga el funcionamiento deseado, lo que a menudo requiere visualizaciones y comparaciones entre ejecuciones. Los experimentos juegan un papel central para descubrir patrones, ajustar el modelo con precisión y garantizar que esté listo para implementarlo en el mundo real.
IA explicable
La IA es fantástica para generar conocimientos y predecir resultados. Pero es igualmente importante, si no más, entender cómo llega a sus conclusiones. La explicabilidad es fundamental para determinar la mejor forma de actuar a fin de influir en los resultados, promover la comprensión y crear confianza. Pero no todos los modelos de aprendizaje automático son explicables. Por tanto, al decidir qué algoritmos usamos, debemos evaluar la necesidad de métricas de explicabilidad en el contexto en el que se toman las decisiones. Sin explicabilidad, las organizaciones pueden introducir sesgos no intencionados en el proceso de toma de decisiones.
Previsión
Una ventaja fundamental del uso de IA para análisis de datos es su capacidad de tomar información histórica y realizar predicciones dentro de un intervalo de tiempo específico. Estas previsiones de series de tiempo toman un patrón de datos histórico y usan regresiones con una o múltiples variables para predecir resultados futuros.
Los programas de planificación de IA pueden prever eventos futuros evaluando enormes cantidades de datos estructurados y no estructurados, estableciendo conexiones y detectando patrones de formas que superan ampliamente los sistemas de previsión tradicionales. Esto no solo permite a las organizaciones tomar decisiones anticipadas, sino también tener en cuenta varios escenarios en caso de que las cosas no se desarrollen según lo planeado.
Modelo fundacional
Antes de desarrollarse con datos de entrenamiento y una aplicación específica en mente, un modelo de IA generativa se denomina modelo fundacional. Son la base sobre la que se crean algoritmos más complejos, adaptados en función del ámbito en el que quieren implantarlos las empresas. Por lo general, los modelos fundacionales son de gran escala y se han entrenado con conjuntos de datos exhaustivos. Algunos ejemplos son GPT-3 y GPT-4 de OpenAI, que se usan como base de ChatGPT.
IA generativa
Aunque la IA tiene infinitas aplicaciones, no se consideraba que pudiera sustituir los roles creativos. Esto era así hasta que apareció la IA generativa. Los modelos generativos están diseñados específicamente para sintetizar contenido nuevo, como texto, audio, imágenes, vídeo o música.
Sin embargo, aún requieren de indicaciones humanas y enormes volúmenes de datos para aprender los patrones y estructuras necesarios para generar contenido nuevo y complejo. Esta rama de la IA no ha estado exenta de complicaciones éticas, ya que a veces se usa para traspasar las líneas entre invención y realidad, principalmente en los denominados ultrafalsos o "deepfakes".
Análisis de factores clave
El análisis de factores clave identifica los principales factores que influyen en un resultado concreto y mide su importancia relativa en la predicción del mismo. Su aplicación más habitual es la realización de estudios de mercado o análisis de relaciones con clientes, que ayudan a las organizaciones a entender qué impulsa el comportamiento de los consumidores y a enfocarse en resultados comerciales, como la fidelidad de los clientes. La IA puede mejorar este análisis mediante el procesamiento de conjuntos de datos enormemente complejos y la identificación de patrones y relaciones, trabajando en sentido inverso hasta encontrar los factores más importantes.
Modelo de lenguaje de gran tamaño (LLM)
¿Se ha preguntado alguna vez cómo es la IA capaz de crear contenido como texto, música, imágenes y vídeo? Lo que permite conseguirlo son los LLM. Estos algoritmos de aprendizaje profundo, que aprenden de la información existente para producir algo nuevo, son la base de productos y soluciones de IA generativa como ChatGPT.
Como Gartner afirma, los LLM se entrenan con "enormes volúmenes" de datos, que les resultan necesarios para funcionar de forma eficaz, infiriendo patrones y relaciones entre palabras y frases para aportar información a la producción creativa. Esto significa que requieren de cantidades masivas de información pública de Internet, lo que permite que los productos con tecnología LLM autoaprendan y mejoren de forma continua con el uso que se les da.
De bajo código o sin código
El auge de los productos y servicios digitales ha convertido el desarrollo de software en una de las habilidades que más buscan los empleadores. Sin embargo, la demanda sigue superando a la oferta. Para contrarrestar este déficit, las organizaciones utilizan plataformas de bajo código o sin código que permiten a usuarios de perfil no técnico contribuir al proceso de desarrollo de software, incluso con conocimientos de codificación limitados. Esto suele traducirse en interfaces modulares de estilo arrastrar y soltar o basadas en asistentes, que permiten a cualquier usuario crear sin necesidad de usar código.
En función de sus necesidades, una empresa puede desplegar herramientas de bajo código (que requieren una implicación limitada de los desarrolladores expertos) o herramientas sin código (que no exigen ninguna implicación de estos). Esto ayuda a democratizar la capacidad de crear sistemas de IA y garantiza que las organizaciones usen el tiempo de los desarrolladores expertos de forma efectiva.
Aprendizaje automáticob (Machine Learning/ML)
El aprendizaje automático es una subdisciplina de la inteligencia artificial (IA) que permite que los sistemas informáticos aprendan automáticamente de los datos sin una programación explícita. Fundamentalmente se utiliza para descubrir relaciones, patrones ocultos y predicciones. Por lo general, la máxima es "cuanto más datos, mejor". Así, los algoritmos de aprendizaje automático aprenden de las entradas y mejoran los resultados al recibir más información. Esto permite aplicaciones como el reconocimiento de imagen, el procesamiento de lenguaje natural, el aprendizaje supervisado y no supervisado, y mucho más.
Creación de modelos
El diseño y la creación de modelos de IA puede ser un proceso largo y complejo que requiere experiencia en ciencia de datos y en técnicas de aprendizaje automático. La creación de modelos es la secuencia de tareas necesaria para desarrollar un modelo listo para aplicaciones del mundo real. Esta secuencia comienza en la compilación y preparación de datos de entrenamiento para el modelo y termina en su implantación y mantenimiento. Esto requiere una combinación de aptitudes técnicas, creatividad y aptitudes de solución de problemas.
Implementación de modelos
Una vez entrenado un modelo de IA, se puede implantar en un entorno del mundo real en el que los datos nuevos o en tiempo real pasan por el modelo para ser "puntuados" o realizar predicciones. Pero soltar los datos en un contexto práctico no es suficiente; el proceso de implementación de modelos no se detiene ahí. Una vez puesto a disposición de usuarios finales u otros sistemas de software, un modelo recibe una gran variedad de datos nuevos e inéditos, lo que influye en los patrones y conexiones que encuentra. Los modelos de IA se deben evaluar y probar constantemente para asegurar que siguen ofreciendo los resultados deseados.
Degradación del modelo
Los modelos de IA se basan en conjuntos de datos, que son bancos de información que emplean para tomar decisiones y arrojar resultados. Pero si estos conjuntos de datos no se actualizan con el tiempo, pueden llevar a la degradación de un modelo, porque los supuestos en los que se base dejen de ser ciertos. Esto es lo que se denomina "degradación o deriva" del modelo, que se traduce en predicciones menos precisas o relevantes, así como un aumento de los falsos positivos y negativos. Si la degradación del modelo no se detecta y se soluciona rápidamente, puede comprometer la integridad de los modelos y las aplicaciones y procesos a los que informan en el mundo real.
Entrenamiento de modelos
Al desarrollar sistemas de IA, es importante exponer cada modelo a datos de calidad y a ejemplos de asociaciones o resultados correctos. Este proceso de entrenamiento de modelos (en esencia, el hecho de enseñarles a reconocer patrones, realizar predicciones o ejecutar tareas específicas) resulta necesario para informar a los resultados posteriores. A medida que cambia el contexto o las necesidades de la organización en torno a un modelo, y a medida que el modelo sigue aprendiendo, puede ser necesario seguir entrenándolo para compensar la exposición a datos menos estructurados. Si se deja que el modelo aprenda sin control y sin un entrenamiento periódico, el riesgo de que aparezcan sesgos y resultados de baja calidad aumenta.
Consultas en lenguaje natural (CLN)
A medida que las soluciones de IA se vuelven más avanzadas, dependen de volúmenes de datos cada vez más grandes. Para que resulten accesibles para todo el mundo, es importante que los usuarios que carezcan de formación técnica realicen consultas de datos con su lenguaje habitual. Aquí es donde entran en juego las consultas en lenguaje natural (CLN).
Los sistemas de IA, como los asistentes virtuales, usan las CLN para analizar las entradas de los usuarios, buscar datos relevantes y proporcionar una respuesta. O, como lo define Gartner, convertir estas entradas en "información codificada y estructurada". En función de lo sofisticada que sea la solución de CLN, las consultas de los usuarios se pueden realizar por escrito o de forma verbal. Esto elimina la necesidad de entradas no basadas en lenguaje y garantiza la disponibilidad general de los sistemas de IA.
Red neuronal
Las redes neuronales se inspiran en el cerebro humano; son los pilares básicos donde se asientan la IA y el aprendizaje automático. Los modelos computacionales se diseñan para procesar datos y aprender de ellos y, de modo similar a las sinapsis, constan de nodos interconectados (un punto de datos en una red o gráfico) organizados en niveles. Hay tres tipos de niveles: uno de entrada, niveles ocultos y un nivel de salida. Estos niveles son la base de la forma en que las redes neuronales pueden aprender y modelar relaciones complejas en los datos, y les permiten analizar dichas relaciones en un nivel no lineal.
IA predictiva
La IA predictiva es un habilitador clave en la toma de decisiones impulsada por datos que identifica patrones en datos históricos para generar previsiones, predicciones, o cálculos sobre eventos o resultados futuros. Los algoritmos de IA pueden analizar enormes y complejos conjuntos de datos que superan la cognición humana para, en palabras de Gartner, responder a la pregunta "¿qué es probable que ocurra?". Esta previsión mejorada, que va más allá de las capacidades de la analítica predictiva tradicional, permite a las organizaciones asignar escenarios futuros basándose en procesos que hacen uso de volúmenes de datos masivos.
Analítica predictiva
La analítica debe basarse en datos históricos. Al fin y al cabo, no puede analizar algo que aún no ha ocurrido. Pero eso no significa que no se pueda usar para realizar predicciones sobre resultados futuros. Este es el principio de la analítica predictiva, que IBM define como la combinación de datos con "modelos estadísticos, técnicas de minería de datos y aprendizaje automático". Al aprender de datos históricos, la analítica predictiva puede identificar parámetros para desarrollar modelos predictivos que anticipen tendencias, eventos y resultados futuros. Las organizaciones implementan esta rama de la analítica para informar a la toma de decisiones y obtener una ventaja competitiva.
Prompt/Indicación
Independientemente de lo avanzado que sea el modelo o la complejidad del conjunto de datos en el que se basa, la IA se apoya, fundamentalmente, en algún tipo de información introducida por humanos. Las indicaciones son el punto de partida de las interacciones con los modelos de IA; proporcionan una consulta o una instrucción que hace que el sistema realice una tarea concreta. Las indicaciones pueden variar significativamente, desde sencillas preguntas en lenguaje natural a detalladas solicitudes con mucho contexto. Como los consumidores de todo el mundo están descubriendo al experimentar con la IA generativa, la claridad de una indicación puede tener un impacto significativo en la precisión y relevancia del resultado que arroje el modelo. Por ejemplo, las indicaciones pueden no ser efectivas cuando no se ciñen a las capacidades y limitaciones del modelo.
Regresión
Aunque los modelos de IA se pueden basar en todo tipo de datos, la regresión es una técnica de aprendizaje automático supervisado que se usa específicamente para realizar predicciones basadas en valores numéricos. La lineal y la logística son las dos formas más habituales de regresión. El modelo de regresión lineal traza una línea (o curva) de mejor ajuste entre puntos de datos y predice valores continuos. Por contraste, la regresión logística es un método binario que evalúa la posibilidad de que algo tenga o no lugar; en esencia, responde a la pregunta "¿sí o no?". La regresión es especialmente beneficiosa para informar a la toma de decisiones en campos que usan datos de forma periódica, como las finanzas, la economía, la sanidad y la ingeniería, e incluye aplicaciones como la predicción de los precios de las acciones o las estimaciones de ingresos.
Aprendizaje autosupervisado y aprendizaje no supervisado
En contraste con el aprendizaje supervisado, en ocasiones la escasez de datos etiquetados dificulta el entrenamiento de los modelos de IA. El aprendizaje autosupervisado es un método que puede crear tareas a partir de datos no etiquetados, aprovechando la estructura y patrones inherentes al mismo para predecir o generar partes del mismo conjunto de datos. Por ejemplo, la técnica del "inpainting" en imágenes puede rellenar partes que faltan en una imagen basándose en los píxeles que las rodean. El aprendizaje no supervisado llega más allá, ayudando a descubrir conocimientos ocultos al entrenar al modelo para descubrir patrones, estructuras o agrupaciones sin etiquetas u objetivos explícitos. Esta es la base de tecnologías como la detección de anomalías.
Análisis de sentimientos
¿Puede entender la IA las emociones expresadas en un texto? Esa capacidad sigue estando reservada a los seres humanos, pero mediante el análisis de sentimientos, la IA puede hacer algo similar; solo que para ello necesita que la ayudemos. Para identificar de forma eficaz los sentimientos de un cliente en un texto, los algoritmos deben entrenarse con datos etiquetados para asociar determinadas palabras con emociones.
Forrester describe el análisis de sentimientos como la clasificación automatizada de los comentarios online como positivos, neutrales o negativos. Sin embargo, hay que tener en cuenta que los modelos más complejos pueden proporcionar una evaluación más detallada y son especialmente valiosos para entender la opinión pública y grandes volúmenes de texto.
Valores de Shapley
Cuando nos planteamos la creación de un modelo predictivo, resulta obvio que algunos valores tienen un impacto mayor que otros a la hora de influir en las predicciones. En el aprendizaje automático, los desarrolladores prestan especial atención a los "Valores de Shapley" para explicar la importancia de las características individuales a la hora de determinar resultados predichos.
El concepto está adaptado de la teoría de juegos, que intenta determinar la contribución de cada participante en un juego cooperativo. El objetivo es asignar de forma matemática y justa el "crédito" del resultado del modelo entre sus características de entrada. Esto proporciona información de gran valor sobre el funcionamiento de un modelo y establece cómo realiza predicciones, lo que aumenta en última instancia la transparencia y promueve mayores niveles de confianza.
Datos estructurados y no estructurados
Los conjuntos de datos se consideran estructurados o no estructurados en función de su grado de definición y organización. Mientras que los datos estructurados se suelen almacenar en tablas y bases de datos, facilitando así la búsqueda y el análisis, los datos no estructurados no tienen un formato o categoría predefinidos. A menudo tienen forma de texto, como correos electrónicos, publicaciones en redes sociales o comentarios de clientes, que resultan más complicados de procesar y es más difícil obtener conclusiones significativas de ellos. La IA resulta especialmente valiosa a la hora de extraer conocimientos de datos no estructurados, lo que permite a las organizaciones minar información dispar y previamente inutilizable para obtener conocimientos prácticos.
Aprendizaje supervisado
Al igual que ocurre con los estudiantes en un aula, en ocasiones el mejor método de enseñanza puede ser demostrar cómo llegar a una respuesta correcta. El proceso de aprendizaje supervisado implica entrenar a un modelo de IA con un conjunto de datos etiquetados para enseñarle los resultados deseados. Dado que ha aprendido de las respuestas correctas conocidas, el aprendizaje supervisado capacita al algoritmo para que generalice y tome sus propias decisiones o predicciones basadas en datos inéditos. Este principio subyace en varias técnicas, como el procesamiento con lenguaje natural y el análisis de regresión.
Datos sintéticos
Si no hay un volumen suficiente de datos del mundo real para entrenar un modelo de IA, se generan datos sintéticos de forma artificial. Estos datos imitan todas las características y propiedades estadísticas de los datos originales, simulando los patrones, distribuciones y estructuras. Esto también puede aliviar las preocupaciones sobre privacidad, ya que se ofrece a los desarrolladores información con la que trabajar de forma que no se ponen en peligro los datos de los clientes. Según IDC, puede "ayudar a eliminar algunos de los sesgos que derivan del entrenamiento con una cantidad de datos reducida".
Sin embargo, la generación de datos sintéticos requiere una consideración cuidadosa para garantizar que represente de forma auténtica las propiedades del conjunto de datos original. De lo contrario, hay un riesgo inherente de que el modelo no arroje decisiones o predicciones precisas.
Análisis de series de tiempo
Cuando se recoge una secuencia de puntos de datos a intervalos consistentes durante un periodo establecido, el análisis de series de tiempo es una técnica que permite descubrir patrones, tendencias y estructuras subyacentes. La información puede variar, desde cifras de ingresos a frecuencia de datos. Es un método muy usado que permite a las organizaciones conseguir conocimientos sobre tendencias y tomar decisiones basadas en datos, ya sea echando la vista atrás o realizando predicciones.
Datos de entrenamiento
Todos los modelos de IA parten desde la casilla de salida. Para comenzar a proporcionar resultados, primero hay que enseñarles con datos de entrenamiento para que sepan cómo deben funcionar. Alimentando el modelo con datos de entrada puede aprender patrones, relaciones y reglas.
Pero la calidad, cantidad y variedad de los datos resultan críticas. Estas son las bases futuras sobre las que se asentará la IA, por lo que si el volumen o la calidad de los datos son insuficientes, o si muestran sesgos, el modelo seguirá expresando el mismo sentimiento en su análisis. Para asegurarse de que los modelos de IA son sólidos, cualquier conjunto de datos de entrenamiento debe ser diverso y representativo.
Escenarios hipotéticos
¿Así que busca determinados resultados de su modelo de IA, pero no sabe qué variables ajustar? Los escenarios hipotéticos tienen como objetivo mejorar la transparencia, la limpieza y la fiabilidad de la IA explorando los posibles resultados o consecuencias de situaciones hipotéticas. Estas pueden ser tan sencillas como "¿Qué pasa si un proveedor cierra?" o tan elaboradas como "¿Qué pasa si el modelo de IA adquiere consciencia?" Investigar el impacto de las distintas variables sobre el modelo facilita la comprensión de sus limitaciones y cómo hacer que sea más sólido. Esto no solo ayuda a las organizaciones a tomar decisiones más informadas, sino que les permite ser más responsables de sus modelos.