Semiconductores
Se refiere a un material cuya conductividad eléctrica es intermedia entre la de los metales y la de los aislantes. Esta propiedad permite controlar con gran precisión la cantidad y la dirección de la corriente eléctrica que circula por un aparato. Mejor aún, se puede ajustar su comportamiento para que reaccionen al calor, la luz u otras señales eléctricas. Esto permite crear componentes capaces de generar, almacenar y transmitir información. Los semiconductores son hoy en día el núcleo de toda la electrónica que nos rodea, desde la lavadora hasta el teléfono inteligente.
Silicio
Existen varios materiales semiconductores, pero el silicio es, con diferencia, el más utilizado, sobre todo por su abundancia en la naturaleza y sus propiedades eléctricas y térmicas, adecuadas para numerosas aplicaciones electrónicas. Otros materiales, como el teluro o el carburo de silicio, se utilizan en aplicaciones más concretas.
CPU
Más comúnmente conocido como procesador, a menudo se compara con el cerebro de un ordenador o un servidor. Este componente permite interpretar las señales y hacer posibles los cálculos. En el campo de la IA, la CPU gestiona las tareas generales: coordinación, comunicación en red, gestión de la memoria, flujos entrantes y salientes… Es fundamental para distribuir una gran cantidad de datos sin ralentizar todo el proceso.
GPU
El procesador gráfico destaca en el procesamiento paralelo gracias a sus numerosos núcleos, menos potentes individualmente que los de una CPU, pero capaces de gestionar un gran volumen de operaciones al mismo tiempo. Esta arquitectura lo convierte en un aliado imprescindible para tareas relacionadas con la IA o el renderizado gráfico.
ASIC
Los ASIC son chips diseñados para una tarea específica. En el campo de la IA, algunos de estos chips, llamados NPU, están optimizados para usos específicos, como el reconocimiento de voz o la visión por ordenador. Menos versátiles pero más eficaces, también consumen menos energía que los chips más generales, como las GPU o las TPU.
TPU
Abreviatura de Tensor Processing Unit, se trata de un procesador desarrollado por Google para acelerar el entrenamiento de sus modelos de IA. Menos flexible que una GPU, es, sin embargo, tremendamente eficaz en tareas precisas como los cálculos matriciales.
SoC (System on Chip)
Un diseño ampliamente dominado por Arm. Los sistemas en un chip (SoC) integran varios módulos, CPU, GPU, controladores de periféricos, etc., en un solo chip. Se encuentran en teléfonos inteligentes, tabletas e incluso en algunos ordenadores portátiles. Permiten compactar los componentes, lo que hace que los dispositivos sean más finos y ligeros.
XPU
Término genérico que designa el conjunto de unidades de procesamiento especializadas (CPU, GPU, TPU, etc.). Utilizado inicialmente en marketing, hoy en día se ha adoptado ampliamente en el mundo de la IA para referirse al conjunto de chips de un servidor o una infraestructura.
Arquitectura
Es la forma en que está diseñado un procesador para funcionar: procesamiento de la información, comunicación con la memoria, número de instrucciones simultáneas, etc. Las dos arquitecturas principales son: x86 (utilizada principalmente por Intel y AMD) y Arm (diseñada por la empresa del mismo nombre).
Fabless
Este término se refiere a las empresas que diseñan chips (planos, arquitectura, rentabilidad...) sin poseer una fábrica. Esta tarea la confían a fundiciones especializadas.
Fundiciones
Las fundiciones, como TSMC, fabrican chips a partir de los planos proporcionados por los diseñadores. Esta etapa, muy delicada, se lleva a cabo en una fábrica, una sala blanca que reúne todas las máquinas esenciales para la producción.
OEM
Un OEM (siglas en inglés de «fabricante de equipos originales») es una empresa que fabrica equipos para otras marcas. En el ámbito de la IA, los OEM ensamblan, por ejemplo, servidores a partir de chips Nvidia para que otras empresas puedan entrenar y utilizar sus modelos.
Wafer (oblea)
Se trata de una fina lámina redonda de silicio en la que se graban miles de circuitos electrónicos. Es el punto de partida de cualquier chip de IA. Una vez fabricada, la oblea se corta en unidades individuales (o matrices) destinadas a convertirse en GPU, CPU o ASIC.
Procesos de grabación
Son las técnicas (EUV, fotolitografía, etc.) utilizadas para dibujar los transistores en la oblea. El grabado se realiza a escala nanométrica y su finura permite ganar potencia al tiempo que se mejora la eficiencia energética.
Nodo
Se refiere a la finura del grabado de un transistor, expresada en nanómetros (3 nm, por ejemplo). Cuanto más pequeño es el nodo, más rentables, compactos y eficientes energéticamente son los chips.
Transistores
El transistor es un minúsculo componente electrónico que controla la corriente en un circuito, como un interruptor o un amplificador. Presente en miles de millones en nuestros chips, es esencial para el funcionamiento de los procesadores, motores de la IA.
Ley de Moore
En 1965, Gordon Moore, cofundador de Intel, predijo que el número de transistores en un chip se duplicaría cada año. En 1975, ajustó su previsión a un ritmo de dos años. Esta ley, que se ha convertido en símbolo de la innovación, tiende hoy en día a ralentizarse: la duplicación se produce más bien cada tres años.
LLM
Un gran modelo de lenguaje (o LLM) es un programa basado en la inteligencia artificial capaz de comprender y generar texto. Se basa en una gigantesca base de datos y sigue mejorando a medida que se utiliza.
Entrenamiento
Es la fase en la que se «alimenta» a una IA con una vasta base de datos. Este proceso es esencial para que aprenda a resolver problemas sin instrucciones explícitas.
Inferencia
La inferencia se refiere a la capacidad de una IA para sacar conclusiones a partir de lo que ha aprendido. Por ejemplo, una IA entrenada para reconocer coches sabrá identificar la marca y el modelo de un vehículo desconocido en una nueva base de datos.
Ajuste fino
Tras un entrenamiento general, se puede perfeccionar una IA con datos más específicos para especializarla. De este modo, se obtienen modelos ultraprecisos en tareas como la traducción automática o la detección de un órgano específico en una imagen médica.