英語フランス語スペイン語

OnWorksファビコン

Windows 用の llama2-webui ダウンロード

llama2-webui Windows アプリを無料ダウンロードして、Ubuntu オンライン、Fedora オンライン、または Debian オンラインでオンライン Win Wine を実行します

これは llama2-webui という名前の Windows アプリで、最新リリースは v0.1.14Release.zip としてダウンロードできます。 ワークステーション用の無料ホスティング プロバイダー OnWorks でオンラインで実行できます。

OnWorks を使用して、llama2-webui という名前のこのアプリをオンラインで無料でダウンロードして実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。

-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードしてインストールします。

-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。

WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。

スクリーンショットは

Ad


ラマ2ウェブイ


DESCRIPTION

どこからでも (Linux/Windows/Mac) GPU または CPU 上の gradio Web UI を使用して Llama 2 を実行します。



特徴

  • 2 ビット、7 ビット モードですべての Llama 13 モデル (70B、8B、4B、GPTQ、GGML) をサポート
  • 生成エージェント/アプリのローカル llama2 バックエンドとして llama2-wrapper を使用します。 コラボの例
  • Llama2 モデルで OpenAI 互換 API を実行する
  • サポートモデル: Llama-2-7b/13b/70b、すべての Llama-2-GPTQ、すべての Llama-2-GGML
  • サポートするモデル バックエンド: トランスフォーマー、bitsandbytes (8 ビット推論)、AutoGPTQ (4 ビット推論)、llama.cpp
  • デモ: MacBook Air で Llama2 を実行します。 無料の Colab T2 GPU で Llama4 を実行する


プログラミング言語

Python


カテゴリー

大規模言語モデル (LLM)

これは、https://sourceforge.net/projects/llama2-webui.mirror/ から取得できるアプリケーションです。 無料のオペレーティング システムの XNUMX つから最も簡単な方法でオンラインで実行できるように、OnWorks でホストされています。


無料のサーバーとワークステーション

Windows と Linux のアプリをダウンロード

Linuxコマンド

Ad