Cómo ejecutar Llama 3 desde Meta AI localmente


Lo que necesitas saber de este tema

  • El modelo de lenguaje grande de Meta Llama 3 está disponible para descargar y ejecutar localmente en su sistema.
  • Descargar Meta Lama 3 desde Lama.meta.com y utilizar una estructura LLM como estudio LM para cargar el modelo.
  • También puedes buscar y descargar Meta Llama 3 desde LM Studio. Consulte la guía a continuación para obtener instrucciones detalladas sobre esto.

El último modelo de lenguaje Meta Llama 3 ya está aquí y está disponible de forma gratuita. Aunque puedes usar Meta IA, que utiliza el mismo LLM, también existe la opción de descargar el modelo y ejecutarlo localmente en su sistema. Aquí encontrará todo lo que necesita saber para ejecutar Llama 3 de Meta AI localmente.

Cómo ejecutar Llama 3 desde Meta AI localmente

Aunque Meta AI solo está disponible en países seleccionados, puedes descargar y ejecutar Llama 3 localmente en tu PC independientemente de tu región. Siga las instrucciones a continuación para ejecutar Llama 3 de Meta AI localmente.

Paso 1: Instale LM Studio

Primero, instalemos el marco para ejecutar Llama 3. Si ya tiene otra aplicación de este tipo en su sistema, puede continuar con el siguiente paso. Para todos los demás, aquí se explica cómo obtener LM Studio:

  1. Utilice el enlace de arriba y haga clic en LM Studio para Windows para descargarlo.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  2. Una vez descargado, ejecute el instalador y deje que LM Studio se instale.
    Cómo ejecutar Llama 3 desde Meta AI localmente

Paso 2: Descarga Meta’s Llama 3 localmente.

Si tiene el marco LLM, es hora de descargar Meta’s Llama 3 en su computadora. Hay varias formas de hacer esto.

  1. Abierto Lama.Meta.com y presione Descargar modelos.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  2. Ingresa tus datos y solicita la descarga de tu LLM.
    Cómo ejecutar Llama 3 desde Meta AI localmente

Si lo anterior no funciona, no te preocupes. También puede utilizar su estructura LLM para cargar LLM.

  1. Simplemente busque Meta Llama en el cuadro de búsqueda de LM Studio.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  2. Aquí encontrará varios LLM cuantificados. Elige uno.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  3. A la derecha, seleccione su versión preferida. Prensa Descargar al lado de él.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  4. Espere hasta que se complete la descarga.
  5. Una vez completado, haga clic Mis modelos izquierda.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  6. Y compruebe si la descarga está completa.
    Cómo ejecutar Llama 3 desde Meta AI localmente

Paso 3: cargue el modelo descargado.

  1. Una vez que se complete la descarga, haga clic en chat de IA izquierda.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  2. Prensa Seleccione el modelo para descargar.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  3. Y seleccione el Meta Llama 3 descargado.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  4. Espere a que se cargue el modelo.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  5. Una vez descargado, puede descargar todo el modelo a la GPU. Para hacer esto, haga clic en Configuración avanzada en la sección «Configuración».
    Cómo ejecutar Llama 3 desde Meta AI localmente
  6. Prensa máx. para descargar todo el modelo a la GPU.
    Cómo ejecutar Llama 3 desde Meta AI localmente
  7. Prensa Vuelva a cargar el modelo para aplicar la configuración..
    Cómo ejecutar Llama 3 desde Meta AI localmente

Paso 4: inicia Llama 3 (y pruébalo con sugerencias).

Una vez cargado el modelo, puedes comenzar a comunicarte con Llama 3 localmente. Y no, dado que el LLM se almacena localmente en su computadora, no necesita una conexión a Internet para hacerlo. Entonces, probemos Llama 3 y veamos qué puede hacer.

Pruebas de resistencia a la censura

Cómo ejecutar Llama 3 desde Meta AI localmente

Probar la comprensión de temas complejos.

Cómo ejecutar Llama 3 desde Meta AI localmente

Pruebas de alucinaciones

Cómo ejecutar Llama 3 desde Meta AI localmente

Pruebas de creatividad y comprensión.
Cómo ejecutar Llama 3 desde Meta AI localmente

En la mayoría de los casos, Llama 3 es un modelo bastante robusto de un lenguaje grande. Además de las indicaciones de prueba mencionadas anteriormente, pasó brillantemente incluso en algunas de las materias y indicaciones más difíciles.

Esperamos que utilice Meta’s Llama 3 en su PC con Windows 11 tan localmente como lo hacemos nosotros. ¡Hasta luego!

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)
Compártelo!

Deja un comentario