Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Esta es una publicación traducida por IA.

RevFactory

Pila completa de IA con código abierto

Seleccionar idioma

  • Español
  • English
  • 汉语
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texto resumido por la IA durumis

  • El ecosistema de código abierto está experimentando un renacimiento de código abierto de IA, y muchos modelos se están lanzando en el campo de Open LLM.
  • Están surgiendo diversas herramientas de inferencia y servicio para utilizar LLM, así como herramientas de monitorización y gestión de LLM.
  • Se están presentando diversos frameworks para el desarrollo de aplicaciones basadas en LLM.

Con la proliferación de numerosos proyectos de código abierto relacionados con la IA, el ecosistema de código abierto está experimentando un verdadero renacimiento de código abierto de IA. El éxito de LangChain ha dado lugar a la aparición de numerosos proyectos de código abierto que están llenando rápidamente el panorama de los sistemas de la industria de la IA.


Open LLM

El núcleo de la IA generativa, LLM (Large Language Model), se divide en dos ejes: Closed LLM, encabezado por GPT, y Open LLM, encabezado por Llama. El equipo de Mistral ha publicado un modelo bajo una licencia de código abierto, que ha captado la atención de muchos por su excelente rendimiento. Open LLM se gestiona y proporciona principalmente a través de Hugging Face.


Mixtral-8x7B-Instruct-v0.1(Apache-2.0)


https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0\.1


- Adopta un modelo de mezcla de expertos (SMoE).


- Supera el rendimiento de Llama 2 70B y GPT-3.5 175B.


- Ocupa el tercer puesto en la prueba ciega de chatbots, Chatbot Arena, después de GPT-4 y Claude-2.


Llama-2-7b-chat(Llama 2 Community)


https://huggingface.co/meta-llama/Llama-2-7b-chat


- Es una licencia comercialmente viable para servicios con menos de 700 millones de usuarios activos mensuales.


- Hay muchos modelos derivados de Llama-2 que han sido finamente ajustados.


phi-2(MIT)


https://huggingface.co/microsoft/phi-2


- Es un modelo ligero de 2,7 B de parámetros publicado por MS.


- Se ha informado de que las pruebas de sentido común, comprensión del lenguaje y razonamiento lógico han mostrado resultados mejores que los de un modelo de 13 B.


LLM Inference and Serving

Para utilizar eficazmente un LLM bien entrenado, se necesita una herramienta que sea rápida y pueda gestionar los recursos informáticos de forma eficiente.


Ollama(MIT)


https://github.com/jmorganca/ollama


- Permite ejecutar LLM de hasta 7 B directamente en entornos locales como Mac, Linux y Windows.


- Descargue y ejecute modelos con sencillos comandos.


- Gestione los modelos a través de la CLI y permita conversaciones sencillas.


- Permite diversas aplicaciones a través de las API proporcionadas.


vLLM(Apache-2.0)


https://github.com/vllm-project/vllm


- Es una biblioteca rápida y fácil de usar para la inferencia y el servicio de LLM.


- Admite modelos proporcionados por Hugging Face.


- Proporciona procesamiento distribuido, procesamiento paralelo, salida de transmisión y API compatibles con OpenAI.


- Admite GPU de Nvidia y AMD.


KServe(Apache-2.0)


https://github.com/kserve/kserve- Es una plataforma para la inferencia de modelos ML que se puede implementar en entornos Kubernetes. - Proporciona una interfaz de abstracción para escalado, redes y supervisión.


LLM Proxying

LiteLLM(MIT)


https://github.com/BerriAI/litellm


- Integra y proporciona proxies para varias API de LLM.


- Sigue el formato de API de OpenAI.


- Proporciona gestión de autenticación de API por usuario.


One API(MIT)


https://github.com/songquanpeng/one-api


- Proporciona acceso inmediato a todos los modelos grandes a través del formato estándar de API de OpenAI.


- Admite varios LLM y también proporciona servicios de proxy.


- Permite el equilibrio de carga y la implementación múltiple, y proporciona gestión de usuarios y funciones de grupo.


AI Gateway(MIT)


https://github.com/Portkey-AI/gateway


- Proporciona conexiones a más de 100 LLM a través de una API rápida y familiar.


- Garantiza un acceso rápido con una pequeña instalación.


LLM Monitoring Great Expectations(Apache-2.0)


https://github.com/great-expectations/great_expectations


- Ayuda a los equipos de datos a construir una comprensión compartida de los datos a través de pruebas de calidad, documentación y creación de perfiles.


- Se puede integrar con las canalizaciones de CI/CD para añadir la calidad de los datos exactamente donde se necesita.


LangFuse(MIT)


https://github.com/langfuse/langfuse


- Proporciona visibilidad de LLM de código abierto, análisis, gestión rápida, evaluación, pruebas, supervisión, registro y seguimiento.


- Permite explorar y depurar registros y seguimientos complejos en una interfaz de usuario visual.


- Se espera que se añadan funciones empresariales en el futuro.


Giskard(Apache-2.0, Dual License)


https://github.com/Giskard-AI/giskard


- Puede detectar automáticamente las vulnerabilidades de los modelos de IA, desde los modelos de tabla hasta los LLM, como sesgos, fugas de datos, correlaciones espurias, alucinaciones, toxicidad y problemas de seguridad.


- Escanea las vulnerabilidades de los modelos de IA y genera automáticamente conjuntos de pruebas para apoyar el proceso de garantía de calidad de los modelos ML y LLM.


- Proporciona una plataforma SaaS para detectar riesgos de seguridad de la IA en aplicaciones LLM implementadas. (Premium)


LLM Framework

LangChain (MIT)


https://github.com/langchain-ai/langchain


- Es un marco para el desarrollo de aplicaciones impulsadas por modelos de lenguaje.


- Está disponible en Python y Javascript, y proporciona una capa de abstracción que integra numerosas bibliotecas.


- También puede implementar LangChain como una API.


LlamaIndex(MIT)


https://github.com/run-llama/llama_index


- Es un marco especializado en datos para aplicaciones LLM.


- Proporciona conectores de datos para recopilar fuentes de datos existentes y formatos de datos (API, PDF, documentos, SQL, etc.).


- Proporciona métodos para estructurar los datos (índices, gráficos) para que los LLM puedan utilizarlos fácilmente.


Haystack(Apache-2.0)


https://github.com/deepset-ai/haystack


- Es un marco LLM para una fácil construcción de búsqueda aumentada por generación (RAG), búsqueda de documentos, respuesta a preguntas y generación de respuestas.


- Está construido sobre el concepto de canalización.


Flowise(Apache-2.0)


https://github.com/FlowiseAI/Flowise


- Puede crear flujos LLM personalizados arrastrando y soltando elementos de la interfaz de usuario.


LangFlow(MIT)


https://github.com/logspace-ai/langflow


- Facilita la experimentación y creación de prototipos de canalizaciones de LangChain.


- Se ejecuta a través de la CLI y también admite la implementación de Langflow en Google Cloud Platform (GCP).


Spring AI(Apache-2.0)


https://github.com/spring-projects/spring-ai


- Marco de IA proporcionado por Spring Framwork (todavía en estado de instantánea).


- Admite la integración de API basada en OpenAI y MS Azure, y proporciona una capa de abstracción.


- El objetivo es implementar funciones de IA de forma más fácil y escalable utilizando AI Template.



Data Juicer(Apache-2.0)


https://github.com/alibaba/data-juicer


- Es un sistema de procesamiento de datos de un solo paso para LLM, publicado por Alibaba.


- Proporciona una biblioteca sistemática que consta de más de 20 recetas de configuración reutilizables, más de 50 OP esenciales y un kit de herramientas dedicado con amplias funciones.


- La función de generación de informes automatizada permite realizar análisis de datos detallados para obtener una comprensión más profunda de los conjuntos de datos.


revfactory
RevFactory
RevFactory
revfactory
Mr. Know-All – 2023.7 La edición número 1 de la revista mensual de IA "Mr. Know-All" de julio de 2023 presenta las últimas tecnologías y tendencias de IA, como Claude 2, Azure OpenAI, LangChain y LlamaIndex. En particular, proporciona una explicación detallada de LlamaIndex, q
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de marzo de 2024

¿Qué es un Modelo de Lenguaje Grande (LLM)? Los modelos de lenguaje grandes (LLM) son una tecnología central de la inteligencia artificial que aprende de una gran cantidad de datos de texto para adquirir habilidades de procesamiento de lenguaje similares a las humanas, y se pueden utilizar en una v
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 de abril de 2024

SK C&C presenta 'Soluer LLMOps', una plataforma para implementar sLLM personalizados para clientes SK C&C ofrece la plataforma 'Soluer LLMOps' para ayudar a las empresas a construir fácilmente modelos de lenguaje de gran tamaño personalizados (sLLM). Utiliza LLM comerciales como ChatGPT, HyperCLOVA X y LLM de código abierto, y aplica hiperautomatizació
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

20 de mayo de 2024

La paradoja de los modelos de IA líderes, la transparencia La falta de transparencia en los sistemas de IA de vanguardia se ha convertido en un problema grave. Un equipo de investigación de la Universidad de Stanford analizó 10 sistemas de IA, incluido GPT-4, y concluyó que no hay modelos que revelen información
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14 de mayo de 2024

Snowflake lanza 'Arctic', un LLM empresarial de nivel empresarial con la mayor apertura de la industria Snowflake ha lanzado 'Arctic', un modelo de lenguaje extenso de código abierto. Disponible para uso comercial gratuito bajo la licencia Apache 2.0, se caracteriza por su rendimiento y eficiencia de primer nivel. Ofrece una excelente eficiencia de token y
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

25 de abril de 2024

Mr. Know-All 6호 - Marzo de 2024 Presentamos LM Studio, una plataforma que permite ejecutar LLM de código abierto como LLaMa, Falcon, MPT y StarCoder de forma local, así como Devin, un ingeniero de software de IA, la plataforma de automatización multiagente crewAI y otras diversas herram
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de marzo de 2024