Evolupedia

Herramientas de Inteligencia Artificial

8. Anatomía de un robot humanoide: sensores, actuadores, visión y control

Por qué importa entender la anatomía de un robot humanoide

Si tu empresa va a pilotar o comprar humanoides, dominar la anatomía de un robot humanoide te evita la trampa del PowerPoint. Sabes qué pedir, qué medir y qué plazos son razonables. Además, separas el marketing de lo que de verdad mueve la aguja: sensores que ven, actuadores que no tiemblan, control estable y software que no te deja vendido por latencia o fallos tontos.

Anatomía de un robot humanoide
Anatomía de un robot humanoide

Arquitectura de alto nivel: bloques y flujo de información

La anatomía de un robot humanoide suele organizarse en:

  • Cuerpo mecánico (estructura, articulaciones, manos, pies o ruedas/base).
  • Sensórica:
    • Propriocepción (lo que siente su propio cuerpo: encoders, IMU, par/torque, sensores de presión en pies o manos).
    • Exterocepción (lo que percibe del mundo: cámaras RGB/estéreo/ToF, depth, LiDAR, micrófonos, táctiles).
  • Computación (ordenadores de a bordo, GPU/TPU para visión/IA, microcontroladores en bajo nivel).
  • Comunicación (bus interno, Ethernet/TSN, Wi-Fi/5G para telemetría y soporte).
  • Control (bajo nivel: par/posición; alto nivel: equilibrio, marcha, manipulación).
  • Planificación (trayectorias, agarres, tareas, políticas aprendidas).
  • Energía (baterías, BMS, carga, seguridad eléctrica).

Sensores: propriocepción y percepción del entorno

La sensórica determina qué tan bien “se ubica” y “siente” el humanoide.

Propriocepción (saber dónde y cómo está su cuerpo)

  • Encoders (absolutos/incrementales): dan el ángulo articular y permiten controlar posición/velocidad con precisión.
    • KPIs: resolución (bits), repetibilidad, error total.
  • Sensores de par/torque (en junta o remoto): aportan compliance (capacidad de ceder) y seguridad al contacto, y mejoran el control de fuerza.
    • KPIs: rango de par, ruido, linealidad, deriva.
  • IMU (acelerómetros + giróscopos, a veces magnetómetro): miden orientación y aceleraciones del torso/cabeza; clave para equilibrio y marcha.
    • KPIs: bias/deriva, ruido, tasa de actualización.
  • Presión/plantillas en pies y tacto en manos: detectan carga, puntos de contacto y deslizamientos.

Exterocepción (ver y oír el mundo)

  • Cámaras RGB (mono/estéreo) y depth/ToF: base para detección, segmentación, estimación de pose y reconstrucción 3D cercana.
    • KPIs: resolución, FOV, tasa de frames, latencia, rendimiento en baja luz.
  • LiDAR (2D/3D): aporta distancias precisas y mapas fiables para navegación.
    • KPIs: alcance, precisión, frecuencia, resistencia a polvo/brillos.
  • Micrófonos y arrays: para ASR (reconocimiento de voz), beamforming y detección de eventos acústicos en entornos ruidosos.
    • KPIs: SNR, cancelación de eco, latencia de ASR.
  • Tacto en dedos/palma: mejora el agarre y la manipulación fina.

Consejo práctico: si la tarea exige precisión (cajones, interruptores), la anatomía de un robot humanoide debería incluir tacto y cámaras cercanas en muñeca/cabeza, no solo una cámara torácica.

Actuadores y transmisión: fuerza, precisión y seguridad

Sin buenos actuadores, todo lo demás es postureo.

  • Motores (normalmente brushless) + reductoras: el estándar para brazos y piernas.
    • KPIs: par continuo/pico, velocidad, eficiencia, ruido, holgura/backlash.
  • Accionamiento elástico en serie (SEA) o compliance integrada: añade seguridad y control de fuerza más suave.
    • KPIs: rigidez controlable, amortiguamiento, respuesta.
  • Frenos (seguridad/retención), embragues y limitadores: evitan daños si algo va mal.
  • Manos y garras: desde garras paralelas robustas hasta manos multifalange; a más dedos, más versatilidad… y más complejidad.
    • KPIs: fuerza de pinza, velocidad de cierre, repetibilidad, tiempo medio de ciclo.

Pista: si necesitas manipulación variada, prioriza manos modulares. Para elementos estándar (cajas), una garra robusta con sensores puede bastar.

Visión y percepción: de la cámara al entendimiento de la escena

La visión no es “poner una cámara”. Es un pipeline:

  1. Captura y sincronización (cámaras, depth, LiDAR).
  2. Calibración (intrínseca/extrínseca) y fusión sensorial.
  3. Percepción: detección/segmentación de objetos, estimación de pose humana y keypoints de manos, reconstrucción 3D.
  4. SLAM (localización y mapeo simultáneos) para saber dónde está y qué hay alrededor.
  5. Seguimiento de objetos/personas y predicción de trayectorias.
  6. Entendimiento semántico (la escena no son píxeles; son mesas, estantes, puertas, herramientas).

Una buena anatomía de un robot humanoide implica latencia baja (ms), robustez a cambios de luz, y modelos que no se caen cuando hay reflejos, brillos o estanterías repetitivas.

Control y planificación: del par articular al plan de tareas

Aquí vive la magia. El control suele organizarse en capas:

  • Bajo nivel (ms): control de par/posición en cada articulación, compensación de fricción, feedforward.
  • Control de equilibrio y marcha: mantiene el centro de masas y gestiona perturbaciones; incluye control de contacto y reacciones a empujones.
  • Control de manipulación: sigue trayectorias en espacio de trabajo, controla fuerzas de agarre y orientaciones de herramienta.
  • Planificación de movimiento (brazo, cuerpo completo): desde RRT/sampling* hasta optimización de trayectorias (jerarquías de tareas, restricciones de colisión, límites de par).
  • Planificación de tareas: secuencias “abre puerta → coge asa → tira → cruza”.
  • Aprendizaje por imitación y ajuste fino: demostrar una tarea y generar políticas que generalicen a variaciones.
  • Capa semántica (opcional): orquestación tipo “agente” para interpretar instrucciones (“repon ponchos talla M en el lineal 3”).

Regla de oro: una anatomía de un robot humanoide sólida mantiene estabilidad aunque la percepción patine un poco, y degrada la conducta de forma segura (no se queda “tieso” ni hace locuras).

Software y middleware: ROS 2, modelos, datos y latencia

  • ROS 2 como middleware de facto: nodos, tópicos, servicios, time sync.
  • URDF/Semantics del robot, librerías de cinemática y colisión.
  • Modelos de visión/ASR optimizados en GPU/TPU a bordo.
  • Registro de datos (rosbags, telemetría) para depurar y mejorar políticas.
  • Edge primero, cloud después: si la conexión falla, el robot no debe quedarse “tonto”.
  • Ciberseguridad básica: autenticación de nodos, redes separadas, control de actualizaciones.

Energía y autonomía: baterías, consumo y carga

  • Baterías + BMS: protecciones, balanceo y estados de carga saludables.
  • Autonomía real: depende de visión, motores y redes. Lo sensato es planificar ciclos de carga (dock, cambio rápido).
  • KPIs: Wh/kg, tiempo de carga, runtime en tarea típica, temperatura en operación.

Operación segura, mantenimiento y telemetría

  • E-Stop físico accesible y parada segura por software.
  • Checklist de arranque: sensores OK, calibraciones, zona limpia, comunicación estable.
  • Mantenimiento preventivo: lubricación, holguras, calibración de sensores, baterías.
  • Telemetría: eventos, errores, tiempos de ciclo, % éxito de tareas, consumo.

KPIs para evaluar la anatomía de un robot humanoide

Si dices “anatomía de un robot humanoide” pero no mides, te estás engañando. Métricas clave:

  • Manipulación: precisión en extremos (mm), fuerza de agarre, tiempo de ciclo, tasa de éxito por tipo de objeto.
  • Movilidad/Equilibrio: recuperación ante empujón estándar, velocidad segura, paso de obstáculos.
  • Percepción: latencia end-to-end (ms), precisión de detección/pose, robustez a baja luz/reflejos.
  • Seguridad: número de paradas por contacto no previsto, cumplimiento de límites de fuerza/energía.
  • Autonomía: minutos/hora de trabajo útil por carga, tiempo de carga, % de tiempo en dock.
  • Mantenibilidad: MTBF, tiempo medio de reparación, disponibilidad (%).

Checklist para PoC y compra

  1. Caso de uso escrito en una línea y con 3–5 KPIs.
  2. Sensores exigidos (cámaras en muñeca/cabeza, LiDAR sí/no, tacto).
  3. Actuadores: par mínimo por junta, compliance, manos/garras y recambios.
  4. Visión: latencia máxima, rendimiento en baja luz, calibración y soporte.
  5. Control: estabilidad en contacto, límites de fuerza, recuperación ante empujón.
  6. Software: ROS 2, acceso a logs, APIs, actualizaciones seguras.
  7. Energía: autonomía mínima y estrategia de carga.
  8. Seguridad: E-Stop, evaluación de riesgos, formación del personal.
  9. Operación: SLA, soporte, repuestos, tiempos de entrega.
  10. Plan de salida: si no cumple KPIs, cómo revertir sin dramas.

Dominar la anatomía de un robot humanoide es el atajo honesto para pasar de demo a producción. Si entiendes sensores, actuadores, visión y control, sabes qué comprar, cómo pilotar y cómo medir. Con ese criterio, un humanoide deja de ser un vídeo bonito y se convierte en un activo operativo que aporta resultados.

Siguiente paso recomendado: prepara un brief con tus tareas objetivo y los KPIs de esta guía; después compara propuestas de proveedores con esta lista. Y si queréis seguir en cadena, vamos con “HRI en humanoides: voz, gestos y seguridad”, mismo formato.

Relacionados:

¿Qué es la robótica humanoide?

Robótica humanoide vs androide vs cobot (comparativa)

Team Evolupedia





Guías de Inteligencia Artificial 2025 | Las Mejores Guías IA en Español | Evolupedia



Preguntas frecuentes

Porque te evita pagar por promesas. Conoces qué sensores, actuadores y software son críticos para tu tarea y filtras a los proveedores que no llegan.

Cámaras en cabeza y muñeca, tacto básico en manos y IMU estable. Si hay pasillos largos o zonas amplias, añade LiDAR para navegación fiable.

Si los objetos son muy distintos, pide manos modulares (dedos intercambiables) o al menos una garra con sensores de tacto y control de fuerza fino.

No. Ayuda a interpretar instrucciones y a planificar alto nivel, pero el control de bajo nivel sigue siendo determinista y rápido.

Empieza en zona acotada, con E-Stop y límites de fuerza conservadores, y vete abriendo a medida que las métricas sean buenas..


Scroll al inicio