diciembre 27, 2024

CORSA Online

Información sobre Argentina. Seleccione los temas sobre los que desea obtener más información en Corsa Online

Cascades hace que el uso de LLM sea muy económico, LLM analiza de manera eficiente LLM en cuanto a fidelidad real, estándares cuestionables y más

Cascades hace que el uso de LLM sea muy económico, LLM analiza de manera eficiente LLM en cuanto a fidelidad real, estándares cuestionables y más


Los investigadores están probando cómo utilizar modelos lingüísticos de forma más rentable (avatar).
Foto de : Lukáš Baumel

Los avances dinámicos en inteligencia artificial crean enormes oportunidades para la innovación. D:ECONOMY le proporciona una visión general periódica y coordinada del progreso actual de la investigación.

DrEsto incluye dos formas muy diferentes en las que los investigadores de IA quieren hacer que el uso de modelos de IA sea más rentable y eficiente. Además, es hora de examinar más de cerca los estándares de LLM que no deben tomarse en serio.

Nuestra guía de hoy sobre la investigación de la IA cubre los siguientes temas:

  • Los LLM graduados algorítmicamente y en cascada son más rentables que utilizar un solo modelo.
  • Los resultados extensos de los LLM se pueden verificar de manera eficiente y rentable para verificar su exactitud objetiva mediante un segundo LLM y una búsqueda en la web.
  • Los modelos lingüísticos pueden reducir la asimetría inherente entre compradores y vendedores en los mercados de información.
  • Los LLM basados ​​en opciones múltiples suelen ser menos útiles de lo que normalmente se supone.
  • Mejor que los conmutadores: los investigadores ofrecen modelos más pequeños de 1 bit que son más eficientes que los LLM “normales” en términos de latencia, rendimiento y consumo de energía.