Insights
Article

Desaprender lineal: La oportunidad agentica

Nate Berent-Spillson
/
SVP, Engineering
<Read time>
/
April 22, 2025
00:00
00:00

En”Desaprender lineal: La nueva economía del trabajo del conocimiento”, discutimos el legado histórico del trabajo de escalado utilizando horas humanas, al igual que una vez medimos la producción en caballos de fuerza. Pero ahora, la IA y la automatización están rompiendo nuestras suposiciones de larga data sobre la productividad, y las cosas están cambiando tan rápido que desafían nuestra capacidad de adaptación.

Hoy, en la Parte 2, nos vamos a centrar en la oportunidad que presenta la IA para transformar nuestros patrones de trabajo lineales y el acceso requerido para que los agentes de IA sean verdaderamente útiles.

La evolución de la IA

Empecemos por revisar la evolución de la IA generativa. Hemos pasado de interfaces simples basadas en búsqueda (como Google) a modelos conversacionales que permiten interacciones iterativas de solicitu-respuesta (como ChatGPT). Ahora, estamos entrando en la era de los agentes de IA, que pueden usar herramientas para recopilar información, como consultas web o análisis financiero, y luego actuar sobre esa información, como enviar una respuesta, programar una reunión o resolver un problema, para hacer un trabajo significativo en lugar de simplemente responder preguntas o redactar un documento.

Los agentes que aprovechan modelos de razonamiento más nuevos pueden trabajar hacia atrás a partir de un resultado, generar las indicaciones necesarias para lograr el resultado e incluso verificar su propio trabajo. Dentro de este espacio, están surgiendo diferentes subclases de agentes, desde asistentes y delegados hasta compañeros de trabajo y revisores. Están empezando a llegar agentes sofisticados, pero el uso práctico de ellos aún no está aquí.

De las tareas al trabajo

Pasar de las tareas al trabajo requiere delegación, y es útil pensar en cómo delegamos el trabajo a un humano frente a un agente de IA. Cuando delego a un humano, por lo general implica una conversación donde puedo medir su comprensión a través del lenguaje corporal y el diálogo de ida y vuelta. Recibo retroalimentación de un humano que dice que está empezando a “entenderlo”, mientras que cuando delego en un agente, hay una brecha de inteligencia emocional. También es más difícil determinar dónde se equivocan los agentes. Con un humano, puedo hacer preguntas aclaratorias y obtener razonamientos detrás de las decisiones. Con un agente, el problema no siempre es reproducible, y no tengo un mecanismo confiable para rastrear dónde se desvía del rumbo. Actualmente, los agentes necesitan más barandillas y requieren un nivel de microadministración para corregir el rumbo y evitar que giren sin cesar en un camino sin salida. Si bien se pueden usar modelos de lenguaje grande (LLM) como juez, y los modelos fundacionales están poniendo más énfasis en el razonamiento, todavía les falta lo que describiríamos como sentido común.

Podría pensar que esto suena negativo sobre los agentes, pero esta es una parte normal de la curva de adopción de tecnología. Estamos aprendiendo a trabajar con estas herramientas, ya que están mejorando de manera simultánea y rápida. La línea de flotación de hasta qué punto se puede delegar a un agente está aumentando, lo que reduce tanto el costo como el esfuerzo para el trabajo de descarga. A diferencia de los humanos, los agentes no sufren el cambio de contexto de la multitarea porque pueden dividir y delegar trabajo continuamente a otros agentes. Los humanos son terribles en ello porque el cambio de contexto mental es discordante para nuestro cerebro, mientras que los agentes pueden lograr una verdadera paralelización escalable del trabajo.

Muchos de nosotros ya estamos delegando tareas como la investigación, el resumen y la toma de notas a la IA, con múltiples beneficios. Durante una reunión, puedes concentrarte más en la conversación mientras tomas tus propias notas. Pero cuando se combina con sus propias notas, la grabación, la transcripción generada por IA y el resumen se convierten en un recurso poderoso para buscar y analizar. Podemos trascender de la conversación etérea al conocimiento componible y la información habilitada por, y luego disponible para un modelo agentico.

El enigma de acceso y confianza

Esto nos lleva a una interesante dicotomía. El poder de la IA proviene de los patrones y su capacidad para proporcionar un contexto significativo. Para que ese poder funcione, debemos dar acceso a mucha información a los agentes y modelos. Hemos avanzado de simplemente seguir el protocolo a la síntesis, el razonamiento, la toma de decisiones y, en última instancia, la acción.

Y así, llegamos al enigma de acceso y confianza. Para que ocurra una delegación real, los agentes de IA necesitan un acceso sin precedentes a los sistemas y datos, de la misma manera que lo haría un humano si estuviera haciendo el trabajo. Esto incluye el acceso a documentos, canales de comunicación y marcos de toma de decisiones. Las empresas protegen legítimamente estas cosas con permisos detallados y enfoques de confianza cero. Pero así como un humano sin acceso a la información y facultado para tomar acción sería ineficaz en su trabajo, un agente sufre de las mismas limitaciones.

Acceder a la información es una cosa, pero agentes que pueden escribir y ejecutar su propio script python para llamar a servicios y API no solo son posibles, sino también lo que se necesita para que sean útiles. Los humanos utilizan una interfaz gráfica de usuario (GUI) para llamar a un servicio de back-end, pero el agente puede ir directamente a una llamada de servicio. Si no llegamos a un nivel de madurez que permita esto, estamos limitando artificialmente lo que los agentes pueden hacer, limitando así su impacto.

Los modelos actuales de control de acceso necesitan avanzar. Dado que los agentes necesitan un acceso sin precedentes a la información y la capacidad de actuar, no es razonable ni recomendable tener cuentas de servicio de agencia con acceso a nivel de superusuario. Aquí es donde entra en juego el concepto de derechos detallados y bajo demanda. Necesitamos la capacidad de crear microderechos que permitan a los agentes leer datos y tomar acciones dentro del contexto de la tarea en la que están trabajando, y cuando se completa la tarea, se revoca el microderecho. Esto nos da una pista de auditoría limpia para el acceso otorgado, las acciones tomadas y el acceso revocado.

Alcanzar el equilibrio entre acceso, supervisión, autonomía y confianza es nuestro próximo desafío. Una posible solución es la ejecución de modelos locales para ayudar a abordar los problemas de seguridad y privacidad. Así como hemos aprendido a administrar la confianza humana en los lugares de trabajo, mejoraremos en la distinción de modelos de IA confiables y los usaremos de manera segura. A medida que estos sistemas se vuelven más capaces, las normas en torno al acceso y la confianza evolucionarán, impulsadas por, lo adivinaste, modelos y agentes.

Un nuevo modelo de gobierno tecnológico

Aprovechar los agentes a escala significa pasar a un nuevo modelo de gobierno tecnológico. La aplicación de políticas hoy en día se basa en la interpretación humana: documentos PDF, SOP y manuales para empleados que las personas leen, aplican y sintetizan. Al decidir si podemos hacer algo o tomar una determinada acción, aplicamos la suma de las leyes, políticas, procedimientos y reglas para finalmente hacer un llamado de juicio. Como humanos, esto está conectado a nuestro comportamiento. Hacemos miles de estas llamadas de microjuicio todos los días en nuestra vida y trabajo. Y como humanos entendemos la sutileza y el matiz, no solo la rigurosa adherencia al protocolo.

Antes de la IA, las computadoras eran deterministas (hacia la basura, hacia la basura) y funcionaban exactamente como estaban programadas. Sin embargo, con los modelos de lenguaje, estamos descubriendo que no solo los modelos pueden hacer un gran trabajo al comprender una gran cantidad de contexto basado en políticas, sino que también pueden hacer un juicio. Para lograrlo en nuestro modelo de gobierno tecnológico, automatizamos el cumplimiento de normas convirtiendo las políticas en código ejecutable (Policy as Code) en lugar de documentos estáticos. En algunos casos, necesitamos un “motor de reglas” estricto que haga cumplir las políticas y reglas de negocio, y cuando sea necesario podemos obtener algo con sutileza y delicadeza. El LLM puede actuar como un juez pragmático, sopesando prácticamente los riesgos, y su probabilidad a la hora de hacer una recomendación o llegar a una decisión.

Esto nos prepara para tener no solo la Política como Código, sino la Política como Agente, un sistema en el que en lugar de buscar en documentos o esperar la aprobación humana, podemos preguntarle a un Agente si una acción cae dentro de la política, y puede proporcionar no solo su razonamiento, sino también referencias de regreso a las políticas apropiadas. El verdadero beneficio es la capacidad de hacer esto a escala.

Este enfoque también se puede aplicar a los derechos y permisos, donde los agentes de políticas toman decisiones en tiempo real dentro de límites bien definidos. Hoy en día, otorgar acceso a los recursos requiere múltiples capas de aprobación, tickets y supervisión manual, que en un mundo agencial no escala. En cambio, un agente que se especialice en otorgar derechos podría evaluar las solicitudes en contexto, determinar si se alinean con la política y aprobarlas o rechazarlas automáticamente, y luego otorgar y revocar derechos detallados con rapidez y escala.

Siempre comienza y termina con confianza

Hemos sido condicionados toda nuestra vida a considerar las computadoras como deterministas. Estamos acostumbrados a decirle a una computadora exactamente lo que queremos que haga y que haga exactamente esa cosa. Desafortunadamente, la IA no funciona de esa manera. Es probabilístico y no determinista. La desconfianza hacia un algoritmo de IA es un fenómeno llamado sesgo de automatización. Debido a que la IA suele ser opaca, no podemos ver el “razonamiento” y no estamos cómodos confiando en el sistema. Verás esto de los escépticos que intentan trabajar con IA, buscándolo para que algo salga mal y luego lo sostienen como un ejemplo de por qué la IA no funciona.

Para el estado actual de la tecnología, eso está bien, solo significa que vamos a delegar tareas de menor riesgo y mantener a un humano al tanto de las acciones. Ponerse cómodo con la forma en que trabajan estos agentes es esencial porque la oportunidad es masiva. Los agentes de IA no solo automatizan tareas; están reestructurando la forma en que el trabajo escala. Esto tiene el potencial de tener un efecto compuesto, donde supercargamos nuestros modelos actuales de conocimiento y trabajo empresarial con compañeros de trabajo sintéticos. Los agentes pueden liberarnos de flujos de trabajo lineales donde el esfuerzo humano es el cuello de botella. En lugar de que el trabajo se expanda sin cesar para ajustarse al tiempo disponible, podemos comenzar a diseñar sistemas donde los resultados, no las horas, sean la unidad de escala.

Hablando en términos prácticos, ¿cómo empezamos? Eso es lo que exploraremos en la Parte 3.

No items found.
Episode hosts and guests
No items found.
Sources
No items found.
Hablemos.

Transform insights into action and ideas into outcomes.