私の次のブログ記事は今週公開されますが、いつもよりずっと深く掘り下げられています。 MLX を使用して Mac で LoRA を使用して Microsoft の Phi-3-mini-4k-instruct (3.8B) を微調整した方法について説明します。 実験は、ローカルで実行される 3.8B モデルを、自分のブログ投稿でトレーニングすることで「私のように話す」ように微調整できるかどうかを調査することです。 私はすでにLoRAアダプターの重みをHugging Faceにプッシュしました。 しかし、さらに重要なことは、この投稿ではプロセス全体を共有し、より多くの技術者が微調整を開始する方法を学ぶことができることです。 - トレーニングデータの準備 - モデルとハイパーパラメーターのトレーニング - 結果の評価 - Hugging Face への公開 そして、それを自分で行うために必要なすべてのコードを共有します。
14.91K