Technically Impossible

Lets look at the weak link in your statement. Anything "Technically Impossible" basically means we haven't figured out how yet.

20240305

https://www.tumblr.com/espio999/94422781533/%E3%81%AA%E3%81%9C%E7%AB%8B%E6%B4%BE%E3%81%AA%E5%A4%A7%E5%AD%A6%E3%82%92%E5%87%BA%E3%81%9F%E4%BA%BA%E6%9D%90%E3%81%8C%E3%81%82%E3%81%82%E3%81%AA%E3%81%A3%E3%81%A6%E3%81%97%E3%81%BE%E3%81%86%E3%81%AE%E3%81%8B%E3%81%93%E3%81%AE%E4%BA%BA%E3%81%9F%E3%81%A1%E3%81%AE%E3%83%A2%E3%83%81%E3%83%99%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3%E3%81%AE%E6%A7%8B%E9%80%A0%E3%81%8C%E3%82%8F%E3%81%8B%E3%81%A3%E3%81%A6%E3%81%84%E3%81%AA%E3%81%84%E3%81%A8%E5%BD%BC
espio999.tumblr.com

Scraping access from Singapore

impsbl.hatenablog.jp

よく見ると、シンガポールからのいつものアクセスではなく、日本からのアクセスが増えていることに気付いた。どうやらPicineと呼ばれる42 Tokyoの入試が実施されており、ページの存在を知った誰かを通じて、受験者内で情報が共有されたのかもしれない。特に今月の受験者には、ブログ投稿を参照している者が多いようだ。

シンガポールからの、本日のアクセスはいつもに比べて控えめだ。とはいえ、更新を知りたければRSSを利用すればよいのだし、多数のアーカイブ先を日に何度も繰り返し参照すること自体が無駄なのだ。

ベンチマーク

前日比順年初来順

大和・グローバルREIT 0.96% 103.06
日興・海外新興国 0.65% 106.93
TOPIX 0.50% 114.94
ひふみ投信 0.46% 114.44
ポートフォリオ 0.45% 111.58
ひふみワールド 0.35% 115.53
さわかみ 0.28% 112.76
eMAXIS Slimオルカン 0.21% 111.98
MSCIコクサイ 0.14% 112.16
ひふみらいと 0.07% 100.15
日経平均 -0.03% 119.82

日経平均 -0.03% 119.82
ひふみワールド 0.35% 115.53
TOPIX 0.50% 114.94
ひふみ投信 0.46% 114.44
さわかみ 0.28% 112.76
MSCIコクサイ 0.14% 112.16
eMAXIS Slimオルカン 0.21% 111.98
ポートフォリオ 0.45% 111.58
日興・海外新興国 0.65% 106.93
大和・グローバルREIT 0.96% 103.06
ひふみらいと 0.07% 100.15

指数

impsbl.hatenablog.jp

TOPIX
日経225JPY
グロース
REIT

海外

impsbl.hatenablog.jp

中国、インド、ブラジル
香港 0.04 -2.61
上海 0.41 0.28
ムンバイ 0.09 -0.26
1309 乖離率 -1.28 -0.88
1325 乖離率 1.85 1.76
1678 乖離率 0.87 0.22
1309
中国
1325
ブラジル
1678
インド

個別

impsbl.hatenablog.jp

PKSHA
楽天

[Open RANを巡る競争は楽天が一歩リードか ドコモと“協調”する可能性も?:embed:cite]

楽天のO-RANソフトウェアは競合と比べて最も成熟している

ビジネス面では楽天シンフォニーが先行していることもあり、OREX SAI設立に至ったドコモの動きには、「なんとなく1周遅れ感がある」(同)と手厳しい。

先にビジネスを拡大し、その中核ともいえるソフトウェアをオープン化していく点では、楽天がドコモを一歩リードしているようにも見える。三木谷氏が「1周遅れ」と語っていたのは、そのためだ。一方で、リアルOpen RANプログラムを開始したことで、ドコモと楽天が手を組める可能性も見えてきた。三木谷氏は、オープン化したvRANを「競合が利用するかもしれないが、それはそれでいい」と語る。

NTT

AI

impsbl.hatenablog.jp

画像生成AIモデルを使ってGPUの速度を比べてみた

eng-blog.iij.ad.jp

NVIDIA GPUのコア世代

TensorCore
Maxwell
Pascal
Volta float 16bit
Turing INT 8, 4, 1bit
Ampere float 64, 16bit
TensorFloat 32bit
bfloat 16bit
INT 8, 4, 1bit
Hopper float 64, 16bit
TensorFloat 32bit
bfloat 16bit
INT 8bit
Ada
Lovelace

Pascal以前は単位がほぼs/itとなっている
Volta以降は単位が全てit/sとなっている

実はTensorCoreという計算機能が実装された境目がここなんです。Volta世代からなんです。

低精度演算を想定していない以前のGPUでは、その精度によっては変換処理が発生してそれがオーバーヘッドになり、逆に「確かにメモリにはモデルが収まるけど、処理させたらめっちゃくちゃ遅い」って状況になりかねませんで、それに備えて登場したのがTensorCoreです。

TensorCoreはタダでさえ単純な演算に特化してるGPUのCUDAコア以上に特化度を上げていて、低精度演算時に行われる行列積の能力にウェイトをより置いた機能を持っています。

LLMを扱ったりする際にお世話になる flash-attention の機能ですが、あれはAmpere以降のGPUじゃないと動きませんのでご注意を・・・

ServiceNow、Hugging Face、NVIDIA、開発者がエンタープライズ アプリケーションの構築に生成 AI を活用するための新しいオープンアクセス LLM をリリース

prtimes.jp

StarCoder2:コード生成用のオープンアクセス大規模言語モデル

30億パラメータ ServiceNow
70億パラメータ Hugging Face
150億パラメータ NVIDIA NeMo*1

catalog.ngc.nvidia.com