画像系をCDNでキャッシュするようにしたら多少読み込みが早くなった。

test2

test

月の振り返りを行う。

fastapiでなにか作ってみる

llamaだとシングルGPUでフルファインチューニングもできそう https://llama.meta.com/docs/how-to-guides/fine-tuning/

llama.meta.com
Fine-tuning | How-to guides Full parameter fine-tuning is a method that fine-tunes all the parameters of all the layers of the pre-trained model.

ファインチューニングモデルだと、データの傾向に従って長い出力をするようになったけど、後半部分がかなり怪しい感じになっている。対策としてデータのバリアンスを増やすのもありかもだけど、LoRA系の手法の限界もあるのかもしれない。

ある学習データは、約18万トークンだった。(システムやユーザープロンプト等は除いた純粋なデータのトークン数)

料金は以下の通りなので、

gpt-4o-2024-08-06: $25.000 / 1M training tokens ファインチューニングモデルの推論の料金: $3.750 / 1M input tokens $15.000 / 1M output tokens gpt-4o-mini-2024-07-18: $3.000 / 1M training tokens ファインチューニングモデルの推論の料金: $0.300 / 1M input tokens $1.200 / 1M output tokens (推論はバッチモードなら半額)

1エポックあたり、4oなら$3(450円)、4o-miniなら$0.6(90円) 3エポックなら、$9(1350円)、4o-miniなら$1.8(270円)

4oは、1日1Mトークン($25)まで無料。一日5エポック無料学習可能 4o-miniは2Mトークン($6)まで無料。一日10エポック無料学習可能 9/23まで。

ファインチューニング中。

エポック数は自動にすると、入力ファイルのバリデーションが済む前に3になっていた。学習過程のメトリクス等ではなく、データ量?に応じて決められていそう。

image.png

面白い。

image.png

時間がないので今日も進捗なし。

これで当分は手直しの必要はなくなったと信じたい。

改造終わり。

今日はmicroblogを軽く改造したらゲーム開発に移る。

test2

編集機能もほぼできた。

あとは

  • ハッシュタグを編集で追加したときにタグ検索結果に反映されない
  • ボタンがdeleteの隣にあって誤爆するのが怖い
    • → confirmしているから大丈夫だった
  • Outboxにも簡単にUpdateを表示するようにしたい
    • → 面倒そうなのでやっぱりやめる
  • new同様Ctrl+Enterでサブミットしたい
  • 更新時間も表示したい
  • 編集時のテキストボックスのデフォルトの大きさが小さいのを修正したい

が終わればOK。

ハッシュタグも使える。すごい。

test

test

testtes

microblogの改造にハマってゲーム開発は進まなかった。

あとは投稿の編集ができたらほぼ完璧。

@router.post("/actions/new") あたりから、新規投稿時の処理は追える。

send_create で新規作成。 send_update もある。(使われていないけど) ソースのTODOコメントをみると、更新処理はすでに作ってあるので、後はUIを作るだけなのかもしれない。

  • UI support for updating posts

変えた。 resp.set_cookie("session", ... のところ。

拡大画像