

"Inteligencia Artificial y las Fusion Skills"
El futuro del trabajo dice relación con las habilidades de fusión que necesitamos para prosperar en la era de la Inteligencia Artificial. Aprender a colaborar sin problemas con herramientas de IA como GPT para mejorar la creatividad, el análisis de datos y la toma de decisiones, son el objetivo de ello.
La inteligencia artificial se ha convertido en una parte indispensable de nuestro trabajo diario. Dependemos en gran medida de herramientas de IA como GPT, Claude y Geimini, por nombrar algunos, para una amplia gama de tareas, ya sea para generar ideas creativas, analizar conjunto de datos extensos o incluso tomar notas y estructurar publicaciones para la redacción que deseamos realizar. Estas herramientas se han integrado tanto en nuestro flujo de trabajo que estamos dependiendo de ellas incluso para tareas rutinarias, como recordar fórmulas de Excel o corregir correos electrónicos. Sin ellas, nuestra productividad se ve afectada notablemente.
Se espera que la inteligencia artificial generativa transforme radicalmente todo tipo de empleos en los próximos años. ya no es un ámbito exclusivo de los tecnólogos, ahora casi cualquier persona puede utilizar la IA, utilizando comandos en lenguaje cotidiano en lugar de códigos. Según HBR, la mayoría de las funciones empresariales y más del 40% de toda la actividad laboral de Estados Unidos se puede aumentar, automatizar o reinventar con la IA generativa. Se espera que los cambios tengan el mayor impacto en los sectores jurídico, bancario, de seguros y de mercado de capitales, seguidos por el comercio minorista, los viajes, la salud y la energía.
Para las organizaciones y sus empleados, este cambio inminente tiene consecuencias enormes. En el futuro, muchos de nosotros descubriremos que nuestro éxito profesional depende de nuestra capacidad para obtener el mejor resultado posible de los grandes modelos de lenguaje (LLM) como ChatGPT, y de aprender y crecer junto con ellos. Para destacar en esta nueva era de Colaboración entre la IA y los humanos, la mayoría de las personas necesitarán una o más de las denominadas “Habilidades de Fusion (Fusion Skills)”: Interrogación Inteligente, Integración de Juicios y Aprendizaje Recíproco.
INTERROGACIÓN INTELIGENTE: Implica dar indicaciones a los estudiantes de maestría en derecho (o, en términos sencillos, darles instrucciones) de manera que produzcan un razonamiento y unos resultados considerablemente mejores. En pocas palabras, es la habilidad de pensar con inteligencia artificial. Por ejemplo, un representante de atención al cliente de una empresa de servicios financieros podría utilizarla para buscar la respuesta a una consulta complicada de un cliente, un científico farmacéutico, para investigar los compuestos de los medicamentos y las interacciones moleculares; un comercializador, para extraer datos y encontrar el precio minorista óptimo.
INTEGRACIÓN DE JUICIOS: Consiste en incorporar el discernimiento humano cuando un modelo de IA Generativo no está seguro de qué hacer o carece del contexto empresarial o ético necesario en su razonamiento. La idea es hacer que los resultados de las interacciones entre humanos y máquinas sean más confiables. La Integración de Juicios requiere detectar dónde, cuándo y cómo intervenir, y su eficiencia se mide por la confiabilidad, precisión y explicabilidad del resultado de la IA.
APRENDIZAJE RECÍPROCO: Implica ayudar a la IA Generativa a aprender sobre tus tareas y necesidades comerciales incorporando datos valiosos y conocimiento organizacional en las indicaciones que le das, entrenándola así para que sea tu cocreadora. Es la habilidad de adaptar la IA generativa al contexto comercial específico de tu empresa para que pueda lograr los resultados que deseas. Al hacerlo, aprendes a entrenar a la IA para que aborde desafíos más sofisticados. El Aprendizaje Recíproco, que antes era una capacidad que solo necesitaban los científicos de datos y los expertos en análisis que creaban modelos de datos, se ha vuelto cada vez más crucial en los roles no técnicos.
¿Por qué es necesario desarrollar sistemáticamente estas nuevas habilidades para pensar, generar confianza y adaptar? La investigación empírica muestra de manera consistente que las instrucciones ad hoc (la forma en que la mayoría de los empleados dan instrucciones para obtener un título de maestría en derecho en la actualidad) conducen a resultados poco confiables o deficientes, especialmente en tareas de razonamiento complejas. Esto es así en todas las funciones, desde atención al cliente hasta marketing, logística e I+D. Es fundamental que todos apliquemos un mayor rigor al uso de la IA de última generación en el trabajo.
INTERROGANDO A LA IA DE FORMA INTELIGENTE.
¿Cómo se puede mejorar el resultado de un sistema enormemente complejo como un LLM, que se entrena con montañas de datos y se rige por probabilidades en lugar de lógica humana? Hay varias técnicas que se pueden utilizar.
PIENSA PASO A PASO: Para impulsar la IA Generativa, es necesario desglosar el proceso que debe seguir en sus partes constituyentes y luego esforzarse por optimizar cada paso, tal como lo hizo la primera ola de gestión científica en la fabricación industrial. Sin embargo,, el proceso de IA no implica una línea de montaje, sino una cadena de pensamiento a través de la cal se busca un resultado. Los estudios han demostrado que cuando se instruye a las herramientas de IA Generativas para que desglose las tareas de razonamiento de esta manera, su rendimiento mejora drásticamente. Esto es particularmente cierto con los problemas más difíciles, como ha demostrado Jason Wei, el investigador de OpenAI que exploró por primera vez el razonamiento en cadena de pensamiento.
De hecho, agregar la simple frase “Pensemos paso a paso” a las instrucciones de un LLM puede aumentar la precisión de su saluda más del triple en una variedad de tareas, desde matemáticas hasta razonamiento estratégico. Digamos que su prompt de IA Generativa es el siguiente:
PROMPT: “Mi departamento tiene un presupuesto de $500,000. Hemos gastado el 20% enequipo y asignado el 30% para una nueva contratación. Acabamos de recibir un aumento de presupuesto de $50,000 ¿Cuál es nuestro presupuesto restante? Pensemos paso a paso”.
Pues bien, el modelo emitirá:
RESULTADO: “Inicialmente, su departamento tenía $500,000. Gastó el 20%, o $100,000,, en equipo, lo que deja $400,000. Asigna el 30%, o $150,000 para una nueva contratación, lo que reduce el presupuesto a $250,000. Finalmente, recientemente recibió un aumento de presupuesto de $50,000. Su presupuesto restante es de $300,000”.
Si bien la mayoría de las personas podrían hacer estos cálculos mentalmente, el punto es que los LLM (que trabajan mucho más rápido) pueden detallar su trabajo sobre problemas cuantitativos que son mucho más complejos, como encontrar la ruta más corta posible para que un representante de ventas tome entre varias ciudades. Esto crea una cadena de razonamiento rastreable (en lugar de arrojar una respuesta al final de un proceso de caja negra) que le permite verificar la precisión de los resultados.
FORMAR A LOS LLM EN ETAPAS: Para la colaboración hombre – máquina en tareas complejas que requieren experiencia ocupacional y de dominio, como derecho, medicina, I+D científico o gestión de inventario, puede introducir IA en el trabajo en etapas para generar mejores resultados.
Por ejemplo, los investigadores del MIT Tyler D. Ross y Ashwin Gopinath exploraron recientemente la posibilidad de desarrollar un “científico de IA” capaz de integrar una variedad de datos experimentales y generar hipótesis comprobables. Descubrieron que ChatGPT 3,5 Turbo podría ajustarse para aprender la biofísica estructural del ADN cuando los investigadores dividieron esa tarea complicada en una serie de subtareas que el modelo debería dominar. En un área no científica como la gestión de inventarios, las etapas de las subtareas podrían incluir la previsión de la demanda, la recopilación de datos sobre los niveles de inventario, las proyecciones de reabastecimiento, la evaluación de la cantidad de pedidos y la evaluación del rendimiento. Para cada subtarea sucesiva, los gerentes entrenarían, probarían y validarían el modelo con su experiencia e información del dominio.
EXPLORAR CREATIVAMENTE CON LLM: Muchos procesos de trabajo, desde le diseño de estrategias hasta el desarrollo de nuevos productos, son abiertos e iterativos. Para aprovechar al máximo la interacción entre humanos e IA en estas actividades, es necesario guiar a las máquinas para que visualicen múltiples caminos posibles hacia una solución y respondan de manera menos lineales y viarias.
Este tipo de Interrogatorio Inteligente puede aumentar la capacidad de los LLM para producir predicciones precisas sobre eventos financieros y políticos complejos, como demostraron recientemente los investigadores Phillipp Schoenegger, Phillip Tetlock y sus colegas. Emparejaron a pronosticadores humanos con asistentes GPT-4 que habían sido preparados con indicaciones muy detalladas para ser “superpronosticadores” (para asignar probabilidades e intervalos de incertidumbre a posibles resultados y ofrecer argumentos a favor y en contra de cada uno). Los investigadores descubrieron que las predicciones realizadas por esos asistentes (sobre todo, desde el valor de cierre del Down Jones Transportation Average en una fecha determinada hasta el número de migrantes que entrarían a Europa a través del mar Mediterraneo en diciembre de 2023) eran un 43% más precisos que las predicciones generadas por LLM no preparados.
INCORPORANDO SU CRITERIO.
Incorporar el discernimiento humanos experto (y ético) a la ecuación será fundamental para generar resultados de IA que sean confiables, precisos y explicables y que tengan una influencia positiva en la sociedad. A continuación, se presentan algunas técnicas que pueden utilizar:
INTEGRAR RAG: Los LLM no solo pueden alucinar, sino que la información y los conjuntos de datos con los que se capacitan suelen tener muchos años de antigüedad. Cuando se trabaja con LLM, las personas deben tomar decisiones con frecuencia sobre hasta qué punto será fundamental que la información confiable, relevante y actualizada en los resultados sea fundamental. Si es así, se puede utilizar la generación de bases de conocimientos autorizadas a las fuentes de capacitación de un LLM estándar. Hacerlo puede ayudar a prevenir la desinformación, las respuestas obsoletas y las imprecisiones. Un investigador farmacéutico, por ejemplo, podría utilizar RAG para acceder a bases de datos del genoma humano, publicaciones recientes en revistas científicas, bases de datos que cubran investigaciones preclínicas y pautas de la FDA. Para configurar RAG, las personas a menudo necesitarán la ayuda de sus equipos de TI, quienes pueden decirles si se ha integrado o se puede integrar en su flujo de trabajo para agregar una capa adicional de calidad a su trabajo.
PROTEJA LA PRIVACIDAD Y EVITE LOS PREJUICIOS: Si utiliza datos confidenciales o información de propiedad exclusiva en sus indicaciones de IA, solo debe utilizar modelos aprobados por la empresa detrás de firewalls corporativos, nunca LLM de código abierto o públicos. Si la política corporativa lo permite, puede utilizar información privada cuando los términos del servicio de la interfaz de programación de aplicaciones de un LLM especifiquen que no se conservará para el entrenamiento de modelos.
Preste atención a los sesgos que puede incorporar en sus indicaciones. Por ejemplo, un analista financiero que le pide a un LLM que explique cómo el informe trimestral de ayer indica que la empresa está preparada para un ciclo de crecimiento de cinco años está mostrando un sesgo de actualidad, la tendencia a sobreponderar la información más reciente al predecir al predecir eventos futuros.
Los proveedores de LLM están buscando formas de ayudar a los usuarios a contrarrestar estos problemas. Microsoft y Google están agregando funciones que ayudan a los usuarios a detectar indicaciones y respuestas dañinas. Salesforce ha desarrollado una arquitectura de IA que oculta cualquier dato confidencial de los clientes en la construcción de indicaciones, evita que dichos datos se compartan con LLM de terceros; sesgo y privacidad; y recopila comentarios sobre la mejora de las plantillas de indicaciones. Sin embargo, al final del día, es usted, el ser humano que participa en el proceso, cuyo juicio será el que más importará.
EXAMINAR SALIDA SOSPECHOSA: Manténgase alerta ante alucinaciones y errores, que según las investigaciones actuales son inevitables incluso con una importante ingeniería de datos y otras investigaciones. Cuando los usuarios de LLM encuentran un resultado que parece fuera de lugar, a menudo incitan reflexivamente al modelo a intentarlo una y otra vez, disminuyendo gradualmente la calidad de la respuesta,, como han demostrado los investigadores de la Universidad de California en Berkeley Jinwoo Ahn y Kyuseung Shing. Los investigadores recomiendan que, en lugar de eso, identifiquen el paso en el que la IA cometió un error y haga que un LLM independiente realice ese paso, dividiéndolo primero en problemas individuales más pequeños y luego use el resultado para ajustar el primer LLM. Imagine a un científico que usa ChatGPT de OpenAI para ayudar a desarrollar un nuevo polímero con una serie de cálculos paso a paso. Si encuentra un error en cualquier punto de la cadena, puede pedirle a Claude de Anthropic que divida ese paso en subproblemas más pequeños y explique su razonamiento. Luego, puede introducir esa información en ChatGPT y pedirle que refine su respuesta. En esencia, esta técnica aplica principios de Cadena de Pensamiento a la corrección del resultado que usted juzga incorrecto.
CONVIRTIENDO A LA IA EN TU APRENDIZ.
A medida que aumenta el tamaño y la complejidad de los LLM, pueden exhibir “propiedades emergentes”: nuevas y poderosas habilidades, como razonamiento avanzado, para las que no fueron entrenados pero que, sin embargo, aparecen después de adaptar los LLM brindándoles datos o conocimientos contextuales. Para estimular su desarrollo, puede tomar las siguientes medidas:
PROPORCIONAR AL MODELO “DEMOSTRACIONES DE PENSAMIENTO”: Antes de darle a un LLM un problema para resolver, puedes prepararlo para que piense de cierta manera. Por ejemplo, puedes enseñarle a razonar de “menos a más”, mostrándole a la IA cómo dividir un desafío complejo en varios desafíos más pequeños y simples; abordar primero el menos difícil; usar la respuesta como base para resolver el siguiente desafío, y así sucesivamente.
Denny Zhon y sus colegas de Google DeepMIndhan demostrado que el enfoque de menos a más mejora la precisión del resultado de la IA del 16% al 99%.
Pensemos en un director de marketing de una marca de ropa deportiva que necesita ayuda para pensar en una nueva línea. Puede desglosar el problema para el LLM de la siguiente manera:
PROMPT: “1. PÚBLICO: Identifica a los entusiastas del fitness que podrían ser clientes potenciales, una tarea relativamente fácil, especialmente para un modelo entrenado con los datos de clientes de la empresa. 2. MENSAJERÍA: Crear mensajes que enfaticen el rendimiento, la comodidad y el estilo: un problema más desafiante y creativo que se basa en la identificación previa de la audiencia. 3. CANALES: Elija redes sociales, blogs de fitness y asociaciones con influencers que le ayuden a hacer llegar esos mensajes a la audiencia. 4. RECURSOS: Asignar presupuesto (que suele ser el tema más polémico en cualquier organización) de acuerdo con la elección de los canales”.
CAPACITA A TUS LLM PARA APRENDER NUEVOS PROCESOS: Puedes enseñarle a una IA a realizar una tarea guiándola a través de un conjunto de ejemplos dentro de un contexto en tus indicaciones. Esto se denomina “Aprendizaje de Contexto” y te permite adaptar LLM preentrenados como GPT-4, Claude y Llama sin el proceso, a veces laborioso, de ajustar sus parámetros. Por ejemplo, los investigadores informaron en Nature que se mostró a los LLM cómo resumir información médica dándoles indicaciones con ejemplos de informes de radiología, preguntas de pacientes, notas de progreso y diálogos médico-pacientes. Después descubrieron que el 81% de los resúmenes producidos por los LLM eran equivalentes o superiores a los resúmenes generados por humanos.
También puede entrenar a un LLM proporcionándole información contextual y luego haciéndole preguntas hasta que resuelva su problema. Considere dos empresas de software, ambas buscando aumentar las ventas. En la empresa uno, el equipo de ventas ha tenido dificultades para predecir de manera efectiva la demanda de licencias de software. Por lo tanto, su líder comienza proporcionan al LLM datos históricos de ventas y luego preguntando sobre la demanda esperada para el próximo trimestre. A continuación, proporciona al modelo información sobre las actualizaciones de las características del software de los clientes y los presupuestos anuales y le pregunta sobre los efectos de la estacionalidad. Finalmente, le proporciona estadísticas detalladas de los sistemas CRM e informes de marketing y le pregunta sobre el impacto de las campañas de un marketing en las ventas.
En la segunda empresa, el equipo de ventas quiere mejorar la selección de clientes. Su líder podría proporcionar datos financieros específicos y pedirle a un LLM que clasifique a los clientes según su contribución a los ingresos, y luego avanzar a consultas de seguimiento sobre el alcance geográfico, las bases de clientes, la experiencia técnica, etc. En cada paso, ambos ejecutivos están capacitando al LLM y refinando su capacidad para realizar la tarea en el contexto de la estrategia de ventas particular de la empresa. Aportan conocimiento organizacional y del sector a las interacciones. A medida que el LLM utilizado por cada uno acumula más experiencia con el proceso de ventas específico de la empresa, genera mejores respuestas.
El Aprendizaje Recíproco se produce a medida que los usuarios pasan de usar preguntas o instrucciones sencillas a describir gradualmente la tarea con mayor complejidad y matices. Pueden agregar contexto, ajustar la redacción y ver cómo responde el modelo, experimentando hasta lograr los resultados deseados.
ADQUIRIENDO NUEVAS HABILIDADES DE FUSIÓN.
La adquisición generalizada de habilidades en Inteligencia Artificial de última generación requerirá no sólo una inversión significativa por parte de las organizaciones, sino también iniciativa individual, estudio y trabajo duro. Aunque algunas empresas ofrecen capacitación relevante, la mayoría aún no ha desarrollado programas sólidos. De hecho, en una encuesta de la investigación de 2024 a 7.000 profesionales, descubrieron que, si bien el 94% dijo que estaba listo para aprender nuevas habilidades para trabajar con inteligencia artificial de última generación, solo el 5% informó que sus empleadores estaban capacitando activamente a su fuerza laboral en este campo a una escala significativa. Muchos de ustedes deberían tomar el asunto en sus propias manos y mantenerse al día con los rápidos avances en los LLM y la investigación de alto nivel que se traduce en prácticas para una variedad de trabajos e industrias. Pueden inscribirse en cursos en línea de proveedores como Coursera, Udacity, la Universidad de Texas en Austin, la universidad Estatal de Arizona y la Universidad de Vanderbilt; experimentan con las técnicas de estímulo que se ha analizado, así como con las emergentes, y presionar asus empleadores para que brinden más oportunidades para usar los LLM junto con instrucción en las mejores prácticas para ellos.
A continuación; adquirir las habilidades para realizar incitaciones en cadena de pensamiento para flujos de trabajo de agentes y modelos de lenguaje multimodales grandes (MLLM), que integran diferentes tipos de datos, como texto, audio, video e imágenes, y al mismo tiempo brindan resultados en esos formatos. Un grupo de investigadores ha descubierto que la incitación en cadena de pensamiento mejoró el rendimiento de los MLLM hasta en un 100%. Los primeros en adoptar estos métodos ya están probando, pero aún no están lo suficientemente maduros para su adopción generalizada.
La revolución de la IA no está por llegar; ya está aquí, con empresas líderes que utilizan la tecnología para re-imaginar procesos en distintas industrias, funciones y trabajos. La IA Generativa ha elevado drásticamente el listón, al exigirnos pensar con IA, asegurarnos de que confiamos en ella y adaptarla continuamente (y a nosotros mismos) para que funcione mejor. Aunque la IA Generativa es parte del movimiento extendido para crear relaciones más simbióticas entre humanos y máquinas, también es única en los anales de la tecnología. Ninguna otra innovación importante en la historia ha despegado tan rápidamente. El trabajo del conocimiento está destinado a transformarse más rápidamente y de manera más poderosa de lo que muchos de nosotros podemos imaginar. Prepárense. El futuro de los negocios no estará impulsado solo por la IA Generativa, sino por las personas que saben cómo usarla de manera eficaz.


Qué bueno ver que has llegado hasta acá, cosa que me alegra enormemente y me llena de satisfacción. Por esa razón, me gustaría darte un consejo.
Tal vez te podrían interesar estas otras áreas que también me encuentro desarrollando para ti. Dales un vistazo, tal vez sean de tu interés y te ayuden también.