Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Ez egy AI által fordított bejegyzés.

RevFactory

Nyílt forráskódú AI teljes verem

  • Írás nyelve: Koreai
  • Referencia ország: Minden ország country-flag

Válasszon nyelvet

  • Magyar
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी

A durumis AI által összefoglalt szöveg

  • A nyílt forráskódú ökoszisztéma AI-nyílt forráskódú reneszánszot él át, és az Open LLM táborban számos modell jelenik meg.
  • Megjelentek az LLM-ek használatához szükséges következtetési és kiszolgálási eszközök, valamint az LLM-ek felügyeletére és kezelésére szolgáló eszközök.
  • Bemutatásra kerülnek az LLM-alapú alkalmazások fejlesztéséhez szükséges keretrendszerek.

Az AI-hoz kapcsolódó számtalan nyílt forráskódú megoldás megjelenésével a nyílt forráskódú ökoszisztéma igazi AI nyílt forráskódú reneszánszot él át. A LangChain sikerét követően számos nyílt forráskódú megoldás jelent meg, amelyek gyorsan kitöltik az AI iparág rendszereit.


Open LLM

A generatív AI szívén a LLM (Large Language Model) áll, amely két fő kategóriába sorolható: a GPT vezette Closed LLM és a Llama csapat Open LLM-je. A Mistral csapat modelljét nyílt forráskódú licenc alatt tette közzé, és kiváló teljesítményével sok ember figyelmét felkeltette. Az Open LLM-eket főként a Hugging Face kezeli és szolgáltatja.


Mixtral-8x7B-Instruct-v0.1(Apache-2.0)


https://huggingface.co/mistralai/Mixtral-8x7B-Instruct-v0\.1


- Szakértői kevert modellt (SMoE) alkalmaz.


- Meghaladja a Llama 2 70B modell teljesítményét, és a GPT-3.5 175B is elmarad tőle.


- A vak chatbot tesztelés, a Chatbot Arena ban a GPT-4 és a Claude-2 után a harmadik helyen áll.


Llama-2-7b-chat(Llama 2 Community)


https://huggingface.co/meta-llama/Llama-2-7b-chat


- A licenc kereskedelmi célokra használható azon szolgáltatások esetén, amelyek havi aktív felhasználói száma 700 millió alatt van.


- Számos származtatott modell létezik, amelyek a Llama-2 modell finomhangolásával jöttek létre.


phi-2(MIT)


https://huggingface.co/microsoft/phi-2


- A MS által közzétett 2.7B paraméterű kisméretű modell.


- A közös tudat, a nyelvi megértés és a logikai következtetés tesztelésében jobb eredményeket mutatott, mint a 13B modell.


LLM következtetés és szolgáltatás

A jól betanított LLM hatékony használatához olyan eszközre van szükség, amely gyors és hatékonyan kezeli a számítási forrásokat.


Ollama(MIT)


https://github.com/jmorganca/ollama


- A 7B méretű LLM közvetlenül futtatható helyi környezetben, mint például Mac, Linux vagy Windows operációs rendszereken.


- Egyszerű parancsokkal lehet letölteni és futtatni a modelleket.


- A modellek CLI felületen kezelhetők, és egyszerű csevegés lehetséges.


- A szolgáltatott API segítségével különböző módokon használható.


vLLM(Apache-2.0)


https://github.com/vllm-project/vllm


- Gyors és könnyen használható könyvtár az LLM következtetéséhez és szolgáltatásához.


- Támogatja a Hugging Face által szolgáltatott modelleket.


- Szolgáltat szétosztott feldolgozást, párhuzamos feldolgozást, folyamatos kimenetet és OpenAI kompatibilis API-t.


- Támogatja az Nvidia és AMD GPU-kat.


KServe(Apache-2.0)


https://github.com/kserve/kserve- Kubernetes környezetben építhető ML modell következtetéshez szánt platform. - Szolgáltat absztrakt felületet a méretezéshez, a hálózathoz és a figyeléshez.


LLM proxy

LiteLLM(MIT)


https://github.com/BerriAI/litellm


- Integrálja a különböző LLM API-kat és szolgáltat proxyt.


- Követi az OpenAI API formátumát.


- Személyre szabott API hitelesítés kezelést nyújt.


One API(MIT)


https://github.com/songquanpeng/one-api


- Lehetővé teszi minden nagy modellhez az azonnali hozzáférést a szabványos OpenAI API formátumon keresztül.


- Támogat különböző LLM-eket, és proxy szolgáltatást is nyújt.


- Lehetővé teszi a terheléselosztást és a többszörös telepítést, valamint a felhasználókezelést és a csoportfunkciókat.


AI Gateway(MIT)


https://github.com/Portkey-AI/gateway


- Gyors és ismerős API keresztül lehetővé teszi a kapcsolatot több mint 100 LLM-mel.


- A kis méretű telepítés gyors hozzáférést biztosít.


LLM Monitoring Great Expectations(Apache-2.0)


https://github.com/great-expectations/great_expectations


- Segít a adatcsapatoknak a közös megértés kialakításában az adatokról a minőségellenőrzés, a dokumentáció és a profilozás segítségével.


- Integrálható a CI/CD folyamatláncokba, hogy pontosan a szükséges helyeken javítsa az adatminőséget.


LangFuse(MIT)


https://github.com/langfuse/langfuse


- Nyílt forráskódú LLM láthatóságot, elemzést, gyors kezelést, értékelést, tesztelést, figyelést, naplózás, és nyomon követést nyújt.


- Lehetővé teszi a bonyolult naplók és nyomon követési adatok áttekintését és hibakeresését a vizuális felületen.


- A jövőben vállalati funkciók is elérhetők lesznek.


Giskard(Apache-2.0, Dual License)


https://github.com/Giskard-AI/giskard


- Automatikusan felismerheti az AI modellek gyengeségeit, mint például a torzítást, az adatkiáramlást, a hamis korrelációt, a hallucinációt, a toxikus viselkedést, a biztonsági problémákat stb. a táblázatos modellektől az LLM-ekig.


- Az AI modellek gyengeségeinek szkennelésével és a tesztkészletek automatikus generálásával támogatja az ML modellek és az LLM-ek minőségbiztosítási folyamatát.


- SaaS platformot nyújt az AI biztonsági kockázatok észleléséhez a telepített LLM alkalmazásokban. (Prémium)


LLM Keretrendszer

LangChain (MIT)


https://github.com/langchain-ai/langchain


- Keretrendszer a nyelvi modellek által üzemeltetett alkalmazások fejlesztéséhez.


- Python és Javascript nyelven érhető el, és absztrakt réteget nyújt a számos könyvtár integrálásához.


- A kialakított LangChain telepíthető API ként is.


LlamaIndex(MIT)


https://github.com/run-llama/llama_index


- Adatokra szabott keretrendszer az LLM alkalmazásokhoz.


- Adatcsatlakozókat nyújt a meglévő adatforrások és adatformátumok (API, PDF, dokumentumok, SQL stb.) gyűjtéséhez.


- Módszereket nyújt az adatok szervezésére (indexelés, grafikonok), hogy azok könnyen használhatók legyenek az LLM-ekben.


Haystack(Apache-2.0)


https://github.com/deepset-ai/haystack


- LLM keretrendszer a kereséssel kiegészített generálás (RAG), dokumentumkeresés, kérdés-felelet és válaszgenerálás könnyű létrehozásához.


- A folyamatláncok koncepcióján alapul.


Flowise(Apache-2.0)


https://github.com/FlowiseAI/Flowise


- Személyre szabott LLM folyamatok építhetők a felületen húzás-és elengedés módszerével.


LangFlow(MIT)


https://github.com/logspace-ai/langflow


- Lehetővé teszi a LangChain folyamatláncok könnyű kísérletezését és prototípuskészítését.


- CLI felületen futtatható, és támogatja a Langflow telepítését a Google Cloud Platformon (GCP).


Spring AI(Apache-2.0)


https://github.com/spring-projects/spring-ai


- AI keretrendszer a Spring Framework része (még fejlesztés alatt).


- Támogatja az OpenAI és a MS Azure alapú API-kkal való integrációt, és absztrakt réteget nyújt.


- Célja, hogy az AI sablonok segítségével könnyebbé és skálázhatóbbá tegye az AI funkciók megvalósítását.



Data Juicer(Apache-2.0)


https://github.com/alibaba/data-juicer


- Az Alibaba által közzétett nyílt forráskódú megoldás, egy egyablakos adatfeldolgozó rendszer az LLM-ekhez.


- Szisztematikus könyvtárat nyújt, amely több mint 20 újrahasználható konfigurációs receptből, több mint 50 kulcsfontosságú OP-ből és egy gazdag funkciókkal rendelkező dedikált eszközcsomagból áll.


- Automatizált jelentéskészítő funkciókkal lehetővé teszi az adatok részletes elemzését, hogy mélyebb betekintést nyerjen az adatkészletekbe.


revfactory
RevFactory
RevFactory
revfactory
Mr. Know-All – 2023.7 A 2023. július havi „Mr. Know-All” havi AI magazin 1. számában bemutatjuk a legújabb AI technológiákat és trendeket, mint például a Claude 2-t, az Azure OpenAI-t, a LangChaint és a LlamaIndexet. Különösen részletesen foglalkozunk a LlamaIndex által biztos
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024. március 21.

A Snowflake bemutatta az Arctic-ot, az iparág legjobb nyitottságú, vállalati szintű LLM-jét A Snowflake kiadta az Arctic nevű nyílt forráskódú, nagyméretű nyelvi modellt. Az Apache 2.0 licenc alatt ingyenesen kereskedelmi célra is felhasználható, és az iparág legjobb teljesítményével és hatékonyságával büszkélkedhet. Kiemelkedő token-hatékonyság
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

2024. április 25.

Mi az LLM (Nagy Nyelvi Modell)? A nagy nyelvi modellek (LLM) a mesterséges intelligencia kulcsfontosságú technológiái, amelyek hatalmas mennyiségű szöveges adatot tanulnak meg, hogy emberhez hasonló nyelvi feldolgozási képességeket szerezzenek, és felhasználhatók chatbotként, fordításho
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

2024. április 1.

Az SK C&C bemutatja a 'Soluer LLMOps' platformot, amely támogatja a testreszabott sLLM-ek implementációját az ügyfelek számára Az SK C&C piacra dobta a 'Soluer LLMOps' platformot, amely lehetővé teszi a vállalkozások számára, hogy testreszabott, kis méretű nagyméretű nyelvi modelleket (sLLM) építsenek. A platform lehetővé teszi az sLLM-ek egyszerű létrehozását húzás-és-elengedés
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (SeenThis.kr)

2024. május 20.

Mr. Know-All 2. szám – 2023. augusztus A vállalati belső adatok LLM-hez való betanításához bemutatjuk a PDF-fájlok feldolgozásának módját. Az OpenAI API, a LangChain és a Streamlit használatával bemutatjuk a FAISS és a ChromaDB vektoros adatbázisok integrációját. Az alábbiakban megtalálhatók a
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024. március 21.

Mr. Know-All 6. szám - 2024. március Bemutatjuk az LM Studio platformot, amely lehetővé teszi az Open Source LLM-ek, mint például a LLaMa, Falcon, MPT és StarCoder helyi futtatását, valamint a Devin AI szoftvermérnököt, a crewAI töb ügynökös automatizálási platformot és egyéb AI eszközöket é
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

2024. március 21.