英語フランス語スペイン語

OnWorksファビコン

Windows 用 LocalAI のダウンロード

オンラインで実行する LocalAI Windows アプリを無料でダウンロードして、Ubuntu オンライン、Fedora オンライン、または Debian オンラインで Wine を獲得します

これは LocalAI という名前の Windows アプリで、最新リリースは v1.30.0.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。

LocalAI with OnWorks という名前のこのアプリをオンラインで無料でダウンロードして実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。

-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードしてインストールします。

-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。

WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。

スクリーンショットは

Ad


ローカルAI


DESCRIPTION

セルフホスト型、コミュニティ主導型のローカル OpenAI 互換 API。 消費者向けハードウェアで LLM を実行する OpenAI のドロップイン代替品。 無料のオープンソース OpenAI の代替品。 GPUは必要ありません。 ggml、GPTQ、onnx、TF 互換モデルを実行します: llama、gpt4all、rwkv、wissers、vicuna、koala、gpt4all-j、cerebras、falcon、dolly、starcoder など。 LocalAI は、ローカル推論用の OpenAI API 仕様と互換性のあるドロップイン置換 REST API です。 これにより、消費者グレードのハードウェアを使用して LLM (だけでなく) をローカルまたはオンプレミスで実行できるようになり、ggml 形式と互換性のある複数のモデル ファミリがサポートされます。 GPUは必要ありません。



特徴

  • ローカルの OpenAI ドロップイン代替 REST API
  • GPUは必要ありません
  • 複数のモデルをサポート
  • 初めてロードされると、モデルをメモリにロードしたままにし、推論を高速化します。
  • シェルアウトはしませんが、C++ バインディングを使用して推論を高速化し、パフォーマンスを向上させます。
  • データの所有者はあなたです


プログラミング言語

Go


カテゴリー

大規模言語モデル (LLM)

これは https://sourceforge.net/projects/localai.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。


無料のサーバーとワークステーション

Windows と Linux のアプリをダウンロード

Linuxコマンド

Ad