英語フランス語スペイン語

OnWorksファビコン

gpt-2-Windows 用の簡単なダウンロード

gpt-2-simple Windows アプリを無料でダウンロードして、Ubuntu オンライン、Fedora オンライン、または Debian オンラインでオンライン win Wine を実行します。

これは gpt-2-simple という名前の Windows アプリで、その最新リリースは v0.8.1_TensorFlow2support.zip としてダウンロードできます。 これは、ワークステーション用の無料のホスティング プロバイダーである OnWorks でオンラインで実行できます。

OnWorks で gpt-2-simple という名前のこのアプリを無料でダウンロードしてオンラインで実行します。

このアプリを実行するには、次の手順に従ってください。

-1。このアプリケーションをPCにダウンロードしました。

--2。ファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXに必要なユーザー名を入力します。

-3。このアプリケーションをそのようなファイルマネージャにアップロードします。

-4。このWebサイトからOSOnWorksオンラインエミュレーターを起動しますが、Windowsオンラインエミュレーターの方が優れています。

-5。起動したばかりのOnWorksWindows OSから、必要なユーザー名でファイルマネージャーhttps://www.onworks.net/myfiles.php?username=XXXXXにアクセスします。

-6。アプリケーションをダウンロードしてインストールします。

-7.LinuxディストリビューションソフトウェアリポジトリからWineをダウンロードします。 インストールしたら、アプリをダブルクリックして、Wineで実行できます。 また、人気のあるWindowsプログラムやゲームのインストールに役立つWine上の豪華なインターフェイスであるPlayOnLinuxを試すこともできます。

WineはLinux上でWindowsソフトウェアを実行する方法ですが、Windowsは必要ありません。 Wineは、任意のLinuxデスクトップでWindowsプログラムを直接実行できるオープンソースのWindows互換性レイヤーです。 基本的に、Wineは、実際にWindowsを必要とせずに、これらすべてのWindowsアプリケーションを実行できるように、十分な数のWindowsを最初から再実装しようとしています。

スクリーンショットは

Ad


gpt-2-シンプル


DESCRIPTION

OpenAI の GPT-2 テキスト生成モデル (具体的には、「小規模」124M および「中規模」355M ハイパーパラメーター バージョン) の既存のモデル微調整および生成スクリプトをラップするシンプルな Python パッケージ。 さらに、このパッケージにより、テキストの生成が容易になり、簡単にキュレーションできるようにファイルに生成され、接頭辞を使用してテキストを特定のフレーズで開始することができます。 微調整には GPU を使用することを強くお勧めしますが、CPU を使用して生成することもできます (ただし、はるかに遅くなります)。 クラウドでトレーニングしている場合は、Colaboratory ノートブックまたは Google Compute Engine VM と TensorFlow Deep Learning イメージを使用することを強くお勧めします。 (GPT-2 モデルは GCP でホストされているため) gpt-2-simple を使用して、この Colaboratory ノートブックで無料で GPU を使用してモデルを再トレーニングできます。このノートブックでは、パッケージの追加機能のデモも行っています。 注: gpt-2-simple での開発は、より効率的なトレーニング時間で同様の AI テキスト生成機能を備えた aitextgen にほとんど取って代わられました。



特徴

  • OpenAI の公式 GPT-2 リポジトリからのモデル管理 (MIT ライセンス)
  • Neil Shepperd の GPT-2 のフォークからのモデル微調整 (MIT ライセンス)
  • textgenrnn からのテキスト生成出力管理 (MIT License / 同じく自作)
  • gpt-2-simple は PyPI 経由でインストールできます
  • 元の GPT-2 モデルは非常に多種多様なソースでトレーニングされており、入力テキストには見られないイディオムをモデルに組み込むことができました。
  • GPT-2 は、リクエストごとに最大 1024 個のトークンしか生成できません (英語のテキストの約 3 ~ 4 段落)。
  • OpenAI の GPT-2 テキスト生成モデル用の既存のモデル微調整および生成スクリプトをラップするシンプルな Python パッケージ


プログラミング言語

Python


カテゴリー

AI テキスト ジェネレーター、ChatGPT アプリ、ジェネレーティブ AI

これは https://sourceforge.net/projects/gpt-2-simple.mirror/ からも取得できるアプリケーションです。 これは、OnWorks でホストされており、無料のオペレーティング システムの XNUMX つからオンラインで簡単に実行できます。


無料のサーバーとワークステーション

Windows と Linux のアプリをダウンロード

Linuxコマンド

Ad