トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
私の次のブログ記事は今週公開されますが、いつもよりずっと深く掘り下げられています。
MLX を使用して Mac で LoRA を使用して Microsoft の Phi-3-mini-4k-instruct (3.8B) を微調整した方法について説明します。
実験は、ローカルで実行される 3.8B モデルを、自分のブログ投稿でトレーニングすることで「私のように話す」ように微調整できるかどうかを調査することです。
私はすでにLoRAアダプターの重みをHugging Faceにプッシュしました。
しかし、さらに重要なことは、この投稿ではプロセス全体を共有し、より多くの技術者が微調整を開始する方法を学ぶことができることです。
- トレーニングデータの準備
- モデルとハイパーパラメーターのトレーニング
- 結果の評価
- Hugging Face への公開
そして、それを自分で行うために必要なすべてのコードを共有します。

14.91K
トップ
ランキング
お気に入り