ベンチマーク
前日比順 | 年初来順 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
|
日経平均が急上昇しているが、年初来パフォーマンスのトップはTOPIXだ。総じて日本株が強く、相対的に世界株が弱い。結果として世界株インデックスのパフォーマンスが、日本市場に劣っている。
そしてアクティブ投信のパフォーマンスは、世界株インデックスを上回ってはいるものの、日経平均にもTOPIXにも負けている。
海外
中国、インド
香港 | -0.21 | -0.57 |
上海 | 0.20 | -0.54 |
ムンバイ | 0.04 | 0.38 |
1309 乖離率 | -0.12 | 0.62 |
1678 乖離率 | 1.54 | 0.48 |
1309 中国 | ||
1678 インド |
AI
金融資本主義からAI資本主義へ
ほとんどの人間は見たこともないような大金を手にすると人格が変わってしまう。
筆者は起業家人生を通じて、一度に調達する現金はそれまでの年商を超えないというルールを課してきた。
必要以上に調達してしまうのは、経営者が人間で、人間の心は機械よりずっと弱いからだ。か弱い人間にとっては、大金が銀行口座にあると考える方が、来月の資金繰りを考えるよりもずっと「気楽」なのである。
今の時代、正しい情報が入力された時、AIは必ず人間より速く正確な答えを出す。
問題はその「情報の正しさ」だが、それだけはまだ人間が判断しなければならない。
ここまでは良かった。そして、ここからが怪しい。特に”1on1”のくだりだ。1on1は腹の探り合いなので、ストレスフルなのだという。しかし相手がAIであれば、思いの丈をぶつけられる、と言う。本当だろうか?
「1on1ミーティング」は、経営側と労働側の腹の探りあいに終始する。しかも双方にとって恐ろしくストレスフルな仕事である。
この間にAIを挟むことで、労働側は思いの丈をAIにぶつけることができる。
留守番電話のような、一方通行の機械に声を吹き込むことすら、恥ずかしさや照れくささを感じる人がいる。そのような気まずさも時間、社会的な普及が解決してくれるのかもしれない。しかしAIが進歩して、より人間的になればどうだろう。相手が真に人間ではなくとも、人間同様、あるいは人間同然に対応するユーザーも現れるのではないだろうか。
つまり人間にするのと同様、AIに対しても嘘や隠し事をインプットするように、さらにはAIの意図を操作しようとして、人間の場合と同じく「腹の探りあいに終始する」ようになるのではないだろうか。
1on1に関する、私自身の経験では、私は主張も報告もストレートなので、私自身の1on1についての経験は、決して「腹の探りあい」ではなかったし、ストレスフルなものでもなかった。相手がどうなのかは分からないが。
1on1が腹の探り合いになり、結果としてストレスフルな機会になること、それを生じさせてしまう状況に問題があるのだとすれば、相手が人間だろうがAIだろうが、その問題を生み出す要因を解消しない限り、変わりはないのではないだろうか。
少なくとも、AIと1on1したからと言って、その問題が解消されるとは思えないのだ。
そして経営コンサルタントAIも怪しい。
多くの経営者にとって必要なのは、「今の自分の悩み(経営課題)を突破するヒントをくれる存在」としてのコンサルタントであり、それが人である必要がないばかりか、ヒトであることでその人の知識が正しいのか、その判断に妥当性があるのか客観的に考える癖を失ってしまうという弊害もある。
AIにコンサルタントができないとは思えないが、クライアントが満足、納得するとは思えない。同じことを伝えても、A氏だったら良くて、B氏だったらダメというケースは常在で、AIがコンサルタントをしたからと言って、ある場合はA氏=AI、そのほかはB氏=AIという事例を上書きするだけだけだろう。
ワインバーグ『コンサルタントの秘密』*1では、クライアント満足度の高い仕事とは、
もっと満足が高いのは、彼らが問題を自分で、しかも次の問題は自力で解ける見込みが高いと思われるようなやりかたで解くのを手助けした、という場合である。
"もっとも満足度が高いのは、彼らが問題をはじめから予防することを学ぶのを手助けした、という場合である。
結局、1on1同様、人間だろうがAIだろうが変わりないと思うのだ。
これまでは経営者の個人の能力や人格を見極めるしかなかったが、前述のように人間というのは変わってしまう生き物である。
その点、AIは積極的に変化するわけではなく、正しいことを正しい時に感情や個人の欲望に流されず冷徹に判断する能力を持っている。
決められたプログラムは、決められた入力に対して、プログラムされた通りの出力を返す。AIもプログラムなのだし、プログラムされた通りの出力を返すとはいえ、同じプロンプトでも、些細な変化のある、異なる出力を返す。たとえそれが「些細な」変化であったとしても、それをどのように解釈するかは人間次第だ。
たとえAIが積極的に変化しないとしても、加えて「正しいことを正しい時に感情や個人の欲望に流されず冷徹に判断」した結果を出力してくれるとしても、ユーザーの意図までもが入力として利用される、あるいはAIが意図を読み取るならば、変わってしまう人間の情報が入力として用いられる以上、AIも事実上、変わってしまうのではないだろうか。
次のアイデアには賛同できるものの、背景となる考え、主張とのつながりが薄弱だと、アジテーション的な印象操作のように感じて、白けてしまう。
意中の女性がいる時、ライバルの男が10本のバラをプレゼントしたとき、15本のバラをプレゼントすれば勝てるか?
でもバラに例えれば、今の状況はライバルのビッグテックが10000本のバラをプレゼントした時、我々の手元には1本のバラしかないというようなものだ。
こんな時、我々は考え方を変えるしかない。