fc2ブログ
体重は思い付きで時々測るのだが定期的に記録することはなかった。記録のモチベーションは高くないがログを見てみたい気がする。そこで、bluetoothで勝手にスマホに飛ばしてくれるモデルを買って記録してみた。自分はがんばらない。

オムロンのスマホ連動体重計

1か月ほど経った。
毎朝起床時同じ時間に測る必要がある。そういう知識はあったが実際に測ると昼間は体重が増え、骨格筋率が上がる。これでは変化が時間帯の違いによるのか経時変化しているのか区別ができない。

朝だけのデータを溜めていった。
9月はスバルラインに向けて少し乗る量を増やしたが予想に反してあまり体重が増えなかった。20日あたりから体調不良で乗らなくなり、DNSし、仕事も在宅で運動量が減ったらみるみる下がり、おそらく成長期以来の53キロ台に突入した。代謝が高まったまま食べる量が減ったと思われる。一方で、骨格筋率はほぼ変化がない。


今年スバルラインを走るチャンスがもう一回あり、せめて55キロまでは増やしたい。ついこの前は56キロを目指していたが下方修正。
なお、今の体年齢は21才とのことである。21才の頃は体重が今より10キロ近く重かったが。
スポンサーサイト



2023.09.29 Fri l つれづれ l COM(0) TB(0) l top ▲
大規模言語モデルは新たな知能か

ChatGPT(大規模言語モデル)とは何なのかについて読んでみた。

大雑把な要約
・現時点での効果的な使い方は、候補を数多く出させて人が参考にしたり、人の案を洗練させたりすること。あとは研究での文献調査。回答が正しいかどうかを人が判断する必要がある。

・言語モデルは意味を捨て確率という構造の中で言語を扱う。次の単語を予測できるように学習すると文章の中から予測に役立つ情報を扱えるようになる。これまでの常識では、問題に応じて適切なモデルサイズが存在し、多すぎると過学習が起きた。しかし、モデルサイズが多いほど言語モデルの性能が上がる、べき乗則が発見された。

・人の言語処理の大部分は無意識に行われていて、仕組みはよくわかっていない。人の進化や学習過程では感覚器による現実世界の理解が先にあり、その上に言語能力が作られると考えられる。エネルギー効率で見ると、大きな言語モデルは数メガワット必要なのに対して、人の脳は20ワットで済み乖離がある。人工知能を突き詰めると人間自身の理解が深まるかもしれない。

・大規模言語モデルの実装
ニューラルネットワーク>ディープラーニング>トランスフォーマー
+強化学習

ディープラーニングの特長
1.ニューラルネットワークの多層構造により、データの表現方法を学習により獲得するので特徴設計が不要。
2.誤差逆伝播法により、どんなに複雑な問題でも学習できる。局所最適解に陥らない。
3.学習の際に適切なサイズに表現力を制御することで過学習を防ぎつつ汎化する。
 
トランスフォーマーモデル
自己注意機構により、過去の自分の途中処理結果から関連しそうな部分に注意して情報を集める。前の層のニューロンの活性値が途中まで考えた結果である。これは短期記憶に相当。さらに、全結合層が今処理している内容と関連する過去の記憶を想起する。これは長期記憶に相当。この想起結果で更新された途中状態に対して、注意と想起を繰り返す。意図せずメタ学習が実現され、未知の状況に適応する能力を獲得する。

強化学習
人が教えた少数の良い回答のランキングから自動評価システムが作られる。生成した対話を評価して大量に学習する。


感想
・素人向けながら少し中身を解説していて解像度がちょうど良い。
・べき乗則について、物理現象のモデル化にシンプルな記述が指向されるのと対照的で直感に反する。このことから何かが根本的に変わったことを理解した気になった。
・子供の言語獲得効率の高さにはいつも目を見張る。子供の発する言葉を大量に記録して追跡すると理解のヒントがあるかも知れない。
・初稿を2週間で書いたというあとがきに驚愕。
2023.09.12 Tue l 本・論文 l COM(0) TB(0) l top ▲

以前ブリジストンのタイヤを買ってみたのだが、表面が摩耗した時に出てくる次の層の色が赤色で、すぐ替えよとの危険信号を発しているように見える。他の多くのタイヤのように、これが黒や白だとまあいいかとなってしまう。赤色にしたのはよいアイデアだと思った。
2023.09.01 Fri l つれづれ l COM(0) TB(0) l top ▲