Technically Impossible

Lets look at the weak link in your statement. Anything "Technically Impossible" basically means we haven't figured out how yet.

20230709




明日から夏本番。
予想気温では、午前8時に30度到達。
ピークは14時、36度。


AI

impsbl.hatenablog.jp

LLaMA in R with Keras and TensorFlow

blogs.rstudio.com
R TensorFlowとLLaMを持ちて、学習済みweightをロードし、文章を生成するまで。
最小モデルでも、64GB RAMが推奨されている。

In this blog post we’ll focus on the smallest, 7B parameter LLaMA model, which you can comfortably load locally and run on CPU with only 64Gb of RAM.

lit-gpt

github.com
ラップトップ級の環境でもfine tuningできるというのだが、それでもGPUは必要だ。

The finetuning requires at least one GPU with ~12 GB memory (RTX 3060).

ggml、alpaca.cpp、llama.cpp

ggml、alpaca.cppを試したのは3月だった。
再確認が必要だ。

zenn.dev
zenn.dev