HELLO CYBERNETICS Profile Banner
HELLO CYBERNETICS Profile
HELLO CYBERNETICS

@ML_deep

7,022
Followers
627
Following
186
Media
18,409
Statuses

機械学習や信号処理と制御についてつぶやきます。個人的見解です。C++/Python/MATLABがちょっと書けます。

Joined October 2016
Don't wanna be here? Send us removal request.
Pinned Tweet
@ML_deep
HELLO CYBERNETICS
2 months
■今年度の習慣付 英語をやる Atcoderなりleetcodeなりをやる 運動する 健康な食事を採る ■目標 TOEIC900 プログラミング問題365問 周1ランニングorフットサルorテニス 絶食日を無くす
0
1
36
@ML_deep
HELLO CYBERNETICS
6 months
【急募】東京ですき焼きの美味しいお店 お酒とかは要らないです。 予算1人10000万〜20000万
360
5K
32K
@ML_deep
HELLO CYBERNETICS
3 years
平均年収581万円でエンジニアは夢があるそう。中央値はもっと下という懐疑派もいるようだだ。 エンジニアの収入事情は分からんけどさ、そんなことはどうでもよくて、581万円で夢と形容される程に日本は経済成長が止まったのが恐ろしい。
16
1K
4K
@ML_deep
HELLO CYBERNETICS
6 months
単位まちげぇた
12
173
4K
@ML_deep
HELLO CYBERNETICS
3 years
これマジなんだけど、スタミナ多いやつマジで強いからね。 分野に秀でた何かを有してなくても、スタミナに物を言わせた1人人海戦術は割と脅威。 無論、無理は駄目なんだけども、スタミナある奴は本当に無理を感じず凄まじい量をこなす。
6
567
3K
@ML_deep
HELLO CYBERNETICS
3 years
データサイエンティストの給料高いとか言うやん?あれ嘘だぞ。データで戦える規模の会社の給料が高いだけやぞ。
4
422
2K
@ML_deep
HELLO CYBERNETICS
4 years
本屋にて
Tweet media one
Tweet media two
2
556
2K
@ML_deep
HELLO CYBERNETICS
4 years
Q: 大学1年で機械学習に興味を持ちました。何を勉強していけば良いでしょうか。 A: 業界に30年以上います。1年生で興味を持ち始めるのは素晴らしいですね。微分積分はもちろんのこと、この分野には特に4つの重要な科目があり、機械、材料、熱、流体をしっかり学ぶと良いでしょう。 🤔
15
457
2K
@ML_deep
HELLO CYBERNETICS
10 months
初手大企業のいいところ。 数年後に色んな企業に友人がいる。
2
156
2K
@ML_deep
HELLO CYBERNETICS
6 years
言いたいことわかるのですが、いや、そういう意味じゃない。 slackで生産性が上がるってのは、「10が15になります」ってことじゃなくて、「-5が0になります」って話です。 大企業のコミュニケーションツールっ��多分IT業界の現代的な人にとっては信じられんくらい文明遅れなんですよ。
@shyouhei
7594591200220899443
6 years
Slackで生産性が上がるとうそぶいてる人達はslackで一体何を「生産」しているというのかね。Excelが快適に動く32GBメモリのPCとかのほうがまだしも何かを生産しているよ。Slackみたいな雑談ツールは所詮は労働時間を無駄遣いしてるだけ。趣味で使うのは止めないが労働生産性の文脈では不適切。
3
236
270
0
736
861
@ML_deep
HELLO CYBERNETICS
1 year
大手メーカーで上流と言う名の関係会社の日程管理と社内予算折衝に勤しみすぎた友人たち、もれなく技術的な面での活躍を諦め、何らかの形でその生き方に納得するしか無くなっていて切ない。
1
131
849
@ML_deep
HELLO CYBERNETICS
5 years
本当に線形代数 マジのマジでとっても有用なので、現在大学生の人はしっかり抑えておきましょう。 欠点は、応用に入ってみないとその重要性が認識できないことなのです。老害的かもしれませんが、本当に大事なのかよく分からなくてもとりあえず勉強しとけ。
1
210
816
@ML_deep
HELLO CYBERNETICS
5 years
ベイズやるなら ●モデリング、プログラミング アヒル本 ●推論、計算 須山ベイズ ●理論 渡辺ベイズ 3冊で良いです。
4
117
801
@ML_deep
HELLO CYBERNETICS
3 years
機械学習が統計学に比べて遥かに流行ってるのは、(語感からか)凄く楽に成果を出せそうだという誤解があるからだと思う。 統計学は当人がかなりデータと向き合って頑張らなきゃいけない感じがするのに比べ、機械学習は計算機が勝手に上手くやってくれそうな名前してるもんね。
4
135
765
@ML_deep
HELLO CYBERNETICS
1 year
OpenWorkで平均年収が600万弱の小さな外資日本法人。口コミが入社仕立ての時期の人(かつ退社済)の人ばかりで、実態は 23歳500万(賞与込み) 25歳700万(賞与込み) 28歳1200万(賞与込み) 30歳 ベース1600万+賞与 という数字だったときの衝撃で自分も頑張ろうと思いました……。
2
49
740
@ML_deep
HELLO CYBERNETICS
2 years
凡人のグラフはこんなんになるんやで。知らんけど
Tweet media one
5
130
721
@ML_deep
HELLO CYBERNETICS
4 years
ベイズ推論を勉強して一番衝撃的だったのは、教師ありとか教師なしとか半教師ありとか欠損値とか、別々に視えることが統一的に扱えるということ。 興味の対象を確率変数として同時分布で表現しておき、あとは実際に手に入っているデータが観測変数、それ以外を潜在変数と思えば良いだけ。
1
106
699
@ML_deep
HELLO CYBERNETICS
4 years
深層学習が流行ったのは、これが達成されてるからだと思う。 ユーザーの殆どは後方自動微分と前方自動微分の差異など知らないし、そもそも各層の正確な計算処理すら意識してないと思う。 計算資源はCUDAに丸投げ、並列化も誰かが準備してくれる。 やるのはデータの準備とネットワークの選定だけ。
@sammy_suyama
須山敦志 Suyama Atsushi
5 years
先日某所でお話しさせていただいた内容.統計ユーザーはややこしい数理や計算機の知識から解放されるべきと思います.
Tweet media one
0
128
644
0
144
563
@ML_deep
HELLO CYBERNETICS
22 days
ありとあらゆるPythonの計算系がコレに依存して開発してると思うと胸にこみ上げてくるものがある
@gihyojp
gihyo.jp
24 days
ニュース「NumPy 2.0、6/16にリリース ―初のメジャーバージョンアップでABI、APIに大幅な変更」公開
0
357
657
0
120
522
@ML_deep
HELLO CYBERNETICS
2 years
GPTchatもstable defusionも人間とAIの直近の関係性が明示された気がする。 抽象度の高い要求を、確度や精度は低いがそれっぽいところまで仕立ててるのがAI。それを修正しつつ特定の目的にカスタマイズするのが人間。 おそらく多くがこの逆を想定してた。精度を出す最後の詰めがAIだと思われてた。
3
115
499
@ML_deep
HELLO CYBERNETICS
6 months
@nakamuradiot @kaede_io 飲食やるなら肉系って決めてたんですよね〜
2
15
493
@ML_deep
HELLO CYBERNETICS
4 years
ディープラーニングは(規則はあるのだが)人間に理解できる低次元空間では中々規則が見えて来ないような問題で、かつ頑張って低次元への近似を行っても返って情報を損なうようなときに、よもや人間の理解がボトルネックなのだと認めて、データ突っ込んでアウトプットだけ見るのに適した方法。
2
96
466
@ML_deep
HELLO CYBERNETICS
5 years
あのな。制御工学が専門ってことにしておけばな、就活で「情報系です」とも言えるし「機械系です」とも言えるし「電気系です」とも言えるし「化学系です」とも言えるんやぞ。 就活の面接なんて奴らも十分に嘘つきなので、こちらもモリモリで相手が望んだ専攻に化けてやれば良いんだぞ。(良くない)
3
134
415
@ML_deep
HELLO CYBERNETICS
4 months
これって、常に固有名詞をつけられた若者に充てがわれてきた歴史があったりしませんか? 何が言いたいのかと言うと、それは本当に世代の特徴なんですか?似たようなことゆとり世代も言われてませんでしたっけ?
@konkatsu_ww
リリカ¨̮ ·͜·
4 months
【Z世代の特徴】 ・仕事出来ない、言われた事しかしない ・どこから湧き出てくるのか謎の自信 ・プライドだけはエベレスト級 ・権利の主張は1人前 ・挨拶できない ・謝れない
163
722
6K
2
83
412
@ML_deep
HELLO CYBERNETICS
3 years
機械学習をやったことも勉強したこともない人が、これ機械学習でできそうなやつだ! とか言って振ってくる話、大抵、機械学習の問題じゃねぇ。 なんで勉強してもない分野の問題設定だ、なんて言えるのか分からん。天才なのかな。
1
34
389
@ML_deep
HELLO CYBERNETICS
1 year
Python、圧倒的に論文実装のライブラリが充実しまくっている。簡単に最新手法を試せますという状態だからこそ、謎の分析や予測が大量生産されてしまう説もある気がする。 実装が正しくてもやってることがおかしいは全然起こりうる。やはり一度は数式かコーディングでちゃんと理解したほうが良い。
1
39
380
@ML_deep
HELLO CYBERNETICS
4 years
●KerasからPyTorchに移った人へ 学習ラッパーオススメNo.1はCatalystになります。 KerasユーザーがPyTorchを敬遠する一番大きな理由は、学習ループを毎回書かなければならないことだと思います。Kerasやsklearnみたいに設定を外で決めたら、fit関数で実行したいという思いにCatalystは応えます。
1
53
377
@ML_deep
HELLO CYBERNETICS
5 months
百万回言ってるけど、データサイエンティストで活躍してる人の数学難しいよねって発言は、行列計算できませんとか微分積分分かりませんとか確率分布を知りませんという意味ではない。 抽象線形代数や解析学の厳密な話、関数解析や微分幾何、測度論はハードル高いよねって言ってるだけだぞ。
4
58
363
@ML_deep
HELLO CYBERNETICS
1 year
ここまでするって、市場が何らかの形で世界的に閉じられてんじゃないですかね。イタリアみたくChatGPT禁止はあまりに極端だけど、その真逆の極端でヨイショされて思い通りに日本が動かされるのも少し警戒したいですね。
@AkihisaShiozaki
塩崎あきひさ 【衆議院議員・愛媛1区】
1 year
OpenAI社のサム・アルトマンCEOが来日し、自民党・AIの進化と実装に関するPTに出席。日本での活発なChatGPTの利用などを引き合いに「日本がAIの利活用を通じて世界で大きな存在感とリーダーシップを発揮してほしい」と同氏。日本への期待を込めて、以下の7点の提案がありました。 1…
Tweet media one
334
3K
7K
14
89
365
@ML_deep
HELLO CYBERNETICS
2 years
これは難易度の高い仮説検定
@sakatokuyt_tg
酒徳祐斗
2 years
今の僕に刺さる広告でした...
Tweet media one
665
7K
70K
2
65
360
@ML_deep
HELLO CYBERNETICS
5 years
機械学習が廃れるのが怖い人、真面目に機械学習や��計の勉強してるのなら、信号処理や制御も勉強すれば分かるので大丈夫だと思います。 (sklearnやkeras動かしただけの人は真面目に勉強しているに含まない)
0
86
357
@ML_deep
HELLO CYBERNETICS
4 years
Q: 大学1年で機械学習に興味を持ちました。何を勉強していけば良いでしょうか。 A: 業界に1年だけいます。1年生で興味を持ち始めるのは素晴らしいですね。微分積分はもちろんのこと、この分野には特に4つの重要な科目があり、統計、線形代数、プログラミング、英語をしっかり学ぶと良いでしょう。 😅
1
53
328
@ML_deep
HELLO CYBERNETICS
4 years
まず集合を考えて、いろいろルールを決めていくと、線形変換とかいう何者かを表すものとして行列が出てくる。 という順序で"やってない"がために、 行列計算こそが線形変換の話だと頭に染み付き、行列を基底にしたり関数を基底にしたりというのが随分発展的に見えてしまう人をたくさん見てきた。
1
81
335
@ML_deep
HELLO CYBERNETICS
1 year
自分もあのレベルで人生終了はあまりにもと思います。しかし実際の支払額はココから下げてくはずですし、それは裁判所の仕事。 単純に10億円の壺を壊されたから、10億円を返してくださいと請求してるだけです。本当に10億の価値があったか、壊れたのはその1人のせいか等を加味して裁判するわけです。
@DDC_violoncelli
DDC_violoncellista
1 year
スシローのペロペロ少年への損害請求が一億6000万にもなりそうだということで、私は結構怒っている。 私もあの醤油ペロペロは非常に不愉快に感じたが、それでも、そこまでの、本人や家族の人生が完全に終わってしまうほどの罪には値しないと思う。首を吊る人が出る額だ。
550
3K
16K
1
36
325
@ML_deep
HELLO CYBERNETICS
5 years
強化学習のベルマン方程式の記事、凄く読んでもらえてるらしい。やはり教師あり、教師なしのノリから報酬だの環境との相互作用だの、慣れない概念から、しかも確率システムを扱う前提で入るのが難しく感じるとこだと思う。 最適制御問題から入ると結構自然と思う。
1
66
329
@ML_deep
HELLO CYBERNETICS
3 years
SONY PyTorchとTensorFlowとJaxという強烈なライブラリがある中、自社でライブラリを作り続けているの、層の厚さや余裕感があってすごい。
0
35
307
@ML_deep
HELLO CYBERNETICS
5 months
自分もこの感覚で、人類レベルでは誰かしらが超速で失敗を繰り返しながら着実に進めていってる。それに感謝しながら個人レベルでは必要に応じたキャッチアップくらいにしておくのが良いと思う。代わりに基礎的な統計やプログラミング、システム設計に注力すると、力を付けやすい気がする。
@TJO_datasci
TJO
5 months
NNブームもLLMブームも傍観してきたけどぶっちゃけ仕事には困ってないし、「猫も杓子も誰もが殺到するテーマ」には皆が「知の高速道路」を敷設してくれるので、いざ必要になったら都度必要な勉強だけすれば事足りると思う。本当に必要なのは「それ以外���の知の高速道路の敷かれていない領域の勉強かと
1
119
690
1
47
298
@ML_deep
HELLO CYBERNETICS
3 years
分野に秀でた、なんてもんじゃない、スタミナは汎用的に秀でた特殊能力と言っても過言ではない。
0
54
301
@ML_deep
HELLO CYBERNETICS
5 months
深層学習ってガッツリ研究することによって(人類レベルではなく個人レベルで)知識の蓄積があるのか良くわかんないのよね…。 結局アップデートが速すぎて、その都度必要な情報だけを取るのが良い勉強法になってしまい、最終的には、めっちゃ必要なことそんなに無くない?となって興味薄れてきた。
1
32
298
@ML_deep
HELLO CYBERNETICS
6 years
・線形回帰 z = wx + b y ~ N(z, s) ・一般線形回帰 z = w g(x) + b y ~ N(z, s) ・一般化線形回帰 z = f(w g(x) + b) y ~ p(z, ...) ・ニューラルネットワーク回帰 o = h (w x + b) z = f (v o + b) y ~ N(z, s) ・ガウシアンプロセス回帰 K = [k(xi, xj)]_ij f(x) ~ GP(0, K) z ~ N (f(x), s)
0
63
290
@ML_deep
HELLO CYBERNETICS
5 years
これがまっとうなBrain Machine Interfaceの姿。簡単には脳信号は使えない。 四肢動作を支援するパワードスーツを脳の信号で操作するために、被験者はアバターの操作を数ヶ月間訓練。 脳の信号は "頭皮と脳の間に" 設置されたエンコーダで取得。脳を直接侵襲はしないが、頭部の切開手術は必要。
@afpbbcom
AFPBB News
5 years
四肢まひの男性、脳信号で制御するパワードスーツで歩行 研究 事故で肩から下がまひしたフランス人男性が、脳信号によって制御するパワードスーツを装着し再び歩けるようになった。研究者らによると、四肢まひ患者に希望を与える大きな前進と言えるという。
Tweet media one
1
672
910
2
117
291
@ML_deep
HELLO CYBERNETICS
5 years
アメリカも日本も経験している人からして、このスライドの内容の感覚はどうですか?
Tweet media one
3
64
290
@ML_deep
HELLO CYBERNETICS
5 months
正直言うと機械学習飽きてもうた…。もう問題設定が定まったら強強モデルを引っ張ってきて終わりだから、うまい問題設定と継続的に学習を行いながら運用していくシステム的なところのほうが楽しく感じる。
1
21
292
@ML_deep
HELLO CYBERNETICS
5 years
なぜかすごく「いいね」がついているので補足 ・アヒル本 数学的難易度低め、データに対するモデリングに注力 ・須山ベイズ 数学的難易度は中、腕力がいる、モデリング→推論の流れの数式操作に注力 ・渡辺ベイズ 数学的難易度は高、予測分布等の数学的性質(汎化性能との関係)などの理論に注力
@ML_deep
HELLO CYBERNETICS
5 years
ベイズやるなら ●モデリング、プログラミング アヒル本 ●推論、計算 須山ベイズ ●理論 渡辺ベイズ 3冊で良いです。
4
117
801
0
48
290
@ML_deep
HELLO CYBERNETICS
2 years
ベイズ機械学習、めちゃくちゃ使えます。深層学習より活躍しました。現場からは以上です。
0
17
289
@ML_deep
HELLO CYBERNETICS
5 years
微積分と線形代数をしっかり読めるようにしておくだけでも、科学技術の文献を漁るハードルが下がることが実感としてある(別に僕は微積分も線形代数も完璧に知っているわけではないが)。 そしてプログラミングを知っていると、それを具体的に試している実例に触れるハードルも下がる。
1
55
276
@ML_deep
HELLO CYBERNETICS
4 years
今からdeep learningの"勉強"をする人はJaxが本当にオススメ(研究に使うとかなら僕はPyTorchの方が使いやすいけど)。おそらく慣れてるnumpyと同じ書かれ方なので何をしているか明白だし、今の所良いラッパーも無いので、野良の実装を見ると具体的にどんな計算をしているのかが分かりやすい。
1
31
276
@ML_deep
HELLO CYBERNETICS
1 year
わいは分散投資は感覚的に、世界が平均的に良くなるならそりゃ良いだろうと思ってたんじゃ。 しかしちゃんと見ると、複数の危険資産の変動の相関が互いに小さいなら、危険資産の和の分散が小さくなるという、アンサンブル学習よろしくの当たり前の事実があったのじゃ……。
1
18
279
@ML_deep
HELLO CYBERNETICS
2 months
今、生成AIでの儲け方って、「使い方を教えます!」っていう金鉱でジーパン売るパターンだけだと思うんですけど、生成AI自体で儲かった人っているんですか?
6
45
272
@ML_deep
HELLO CYBERNETICS
2 years
僕知ってる。本当にみんながほしいのは手軽に使える適応制御手法で、強化学習は手軽に使える何かだと期待されている。もちろん実際強化学習は手軽じゃない。全然収束しない。そして大抵制御則をオンラインで安定的に更新なんてできない。ほとんどはオフラインで最適制御則を作っておく手法と化す。
1
39
267
@ML_deep
HELLO CYBERNETICS
4 years
y = f(x) というモデルで、ひと目では分からぬような関係性を大量のyとxから求めようとするのが機械学習だとしましょう。 一方でy = f(x)のfは分かってんだけど、xが正確に得られないからyが上手く予測できません。(なぜか)機械学習でなんとかなりませんか。 みたいなの意外と多い。
1
58
265
@ML_deep
HELLO CYBERNETICS
1 year
応用情報、合格それ自体が役立ったことマジで一度もないので、一生懸命勉強して頭に入れた自負があれば試験は落ちてもいいし、なんなら行かなくてもいいです。
1
29
260
@ML_deep
HELLO CYBERNETICS
1 year
年俸1500万円を400人雇ってるとして固定費が超過しました、くらいトヨタとしては痛くも痒くもない気がします。 むしろ、自動運転など仕事の切り分け方次第で如何様にでもできたであろう数字を、わざわざ明確に債務超過の形式にしたのは何か政治的な動きだったり。(ウーブン締付け準備とか)
1
51
256
@ML_deep
HELLO CYBERNETICS
6 months
これ、未だにボーナスが非課税だと思ってる世代が、新卒や若手にボーナスもらえて良かったな!とか言ってるの草of草なんですよね。 いや、もう単なる給料の後払いだからね?!
@mech_eng_PE
技術士のススメ
6 months
もうボーナスという仕組みやめてしまえば?としか思わん。 昔は非課税だったから特別感すごかっただろうけど、今は変わらん。ボーナスというシステム辞めて毎月の給料に反映してくれた方がいい。 毎月赤字だー!をボーナスで補填とかが無くなる。 企業にとっても夏と年末の一時的な負担が無くなる。
28
192
963
0
87
253
@ML_deep
HELLO CYBERNETICS
3 years
選ばれたのはPyTorchだった
@ImAI_Eruel
今井翔太 / Shota Imai@えるエル
3 years
恐らく世界で一番読まれた機械学習の教科書"Murphy本"の新版"Probabilistic Machine Learning: An Introduction"について,書籍のドラフトが公開されてましたが,なんと実装コードも公開される模様 機械学習のほとんどの領域をカバーする本の実装だけに,大変参考になります
Tweet media one
Tweet media two
Tweet media three
0
347
2K
0
29
250
@ML_deep
HELLO CYBERNETICS
1 year
これ、マジで正直本当にどう転ぶかわかんないのが怖いのよね……。 ここ10年、都心の地価は上がり続けてるけど、それに見合う物価の上昇や賃金の上昇は無かった。けどここ最近は日用品の物価もジワジワ上がりつつ、政府も賃金を上げる方向にも具体的に動いてきているから、現金保持が紙くず化もある…
@tenche1204
たろ丸@キャリア孔明
1 year
物件価格が高いので賃貸で様子見だった知人友人が最近こぞって戸建てやマンションの購入を検討し始めていたので理由を聞いたら、今高いのはわかっているけどこれ以上高くなると買えなくなるからと言っていて、これ90年代のバブルのときに発生していた現象の再来だなと感じてる。
19
440
2K
1
45
253
@ML_deep
HELLO CYBERNETICS
10 months
やっぱり階層ベイズモデルは民主化されるべき。NNライブラリ並にレゴブロックの如くモデルを組めるべき。…
1
24
243
@ML_deep
HELLO CYBERNETICS
2 years
強化学習は報酬の設計が難しい。→報酬の設計を逆強化学習でやらせたいがエキスパートから学ぶのも難しい。→エキスパートの軌道を模倣学習すればよい。エキスパートも未経験データは微分可能シミュレータを介して報酬の勾配学習をする。 こうしてただの非線形最適制御になるのであった。
2
39
240
@ML_deep
HELLO CYBERNETICS
5 years
実は趣味で機械学習してたけど、仕事で機械学習するマンに今月から転生した。
4
7
234
@ML_deep
HELLO CYBERNETICS
2 years
最近、機械学習の勉強の熱意下がりつつある。役に立つケースはたくさんあるけど既存ツールで済むことが多い。というかそもそも使うという面で整備されているツールでなければ機械学習の実用に耐えられない。そうなると機械学習それ自体よりエンジニアリングのウェイトが圧倒的に大きいし、多分楽しい。
0
20
235
@ML_deep
HELLO CYBERNETICS
2 years
正則化は予測モデルがデータ毎に異なる学習結果となることに対して、学習結果の期待値が真値からズレることを許容する代わりに、単一の学習結果が期待値の周りでブレにくくことで、大外れの学習結果を引きづらくする。これを汎化と呼んでる。言葉のイメージからもっと壮大な物をイメージする人が多い。
@hbouammar
Haitham Bou Ammar (هيثم بو عمار)
2 years
Bias-variance trade-off is one of the most important aspects of #MachineLearning . Don't forget your #algorithmic implementation should strike a balance. #ArtificialIntelligence #BigData #Python #learning #teaching #TensorFlow #PyTorch #DataScience #informationtechnology #math
Tweet media one
1
77
352
1
23
234
@ML_deep
HELLO CYBERNETICS
4 years
統計のプロを謳う人がこれを言っていて、私が "サンプルサイズが大きすぎるのは良くない"というのは、実��とデータ収集にはコストが掛かるの��から"意思決定に必要なサンプルサイズを見積もりましょう"という意味ですよね と確認したら、検定に応じて最適なサイズがあるのだと言われたので、黙った。
@nekoumei
nekoumei
4 years
ずっと気になってたので調べました 「サンプルサイズが大きすぎると良くない」ってどういうこと?|nekoumei #note
5
120
618
1
40
224
@ML_deep
HELLO CYBERNETICS
5 years
実はこの世界は、プログラミングはできないし、統計も知らない、というのがデフォルトの世界。にもかかわらず、この2つの汎用性は半端ないので、自分がどの分野の人間であっても鍛えておくと良いと思います。
0
51
219
@ML_deep
HELLO CYBERNETICS
5 years
僕は統計も機械学習も勉強続けます。データサイエンティストという職業が不要になろうとも関係ないです。名前が付いているかどうかだけの問題で、これまでもこれからもデータと向き合う仕事はあるでしょう。
2
16
209
@ML_deep
HELLO CYBERNETICS
2 years
深層学習見てると予測の技術というよは、背後に法則があってそれに従う例題を丸暗記(ないしルールベースで記述)する代わりに、人間にはわからない次元で圧縮表現として持つことのできる技術、と思ったほうが分かりやすい気がする。 なんか未知を予測できますという説明だと妙に発想が飛んでしまう。
2
30
212
@ML_deep
HELLO CYBERNETICS
1 year
就職してから最初の5年の年収 1年目380万 2年目550万 3年目560万 4年目700万 5年目730万 という推移でした。世間的には低い給与ではないですがTwitter界隈の高給取りでもないです。 この5年で何故か1000万貯蓄ができてたので、それからは自分の物欲を考えるとお金の心配はあまりなくなりました。
3
12
179
@ML_deep
HELLO CYBERNETICS
6 years
機械学習バブルと言いますが、機械学習を語る情報商材のバブルであって、技術そのものはバブリーってほど爆発的な成果無いような気もします。 そもそも、統計も機械学習も非常に泥臭く地味で堅実なものと思います。 機械学習バブルが終わっても機械学習それ自体は地味に正しく生き残る。
2
71
198
@ML_deep
HELLO CYBERNETICS
10 months
てか、粒子フィルタとかMCMCって今更ながらすげぇわ。神のツール。確率的勾配降下法も実質粒子フィルタ。
3
19
205
@ML_deep
HELLO CYBERNETICS
4 years
日本電産会長様の言うとおり、英語も喋れないし専門性も無いような学生の方が多いのは事実だと思いますね。 もちろん、そんな学生ばかりではないという反論も事実ですね。 結局のところ英語も喋れる専門性を持った人間は年功序列の初任給20万みたいなところはなるべく避けてるんじゃないですかね😊
0
57
203
@ML_deep
HELLO CYBERNETICS
4 years
カルマンフィルタが計算量込みで神だが、外れ値に吹っ飛ばされるなどの事情でガウス分布じゃないモデルを置く必要があるときにはパーティクルフィルタを渋々使うという結論に至った。
1
20
201
@ML_deep
HELLO CYBERNETICS
6 years
今更ながらすごく勉強になりそうなリポジトリ見つけました! PRMLではコードの話なんて全く出てこないんですが、当リポジトリではnumpyでの実装があります。これでコードと突き合わせながら読むことで理解深めていけるんではないでしょうか。
0
48
201
@ML_deep
HELLO CYBERNETICS
10 months
単純に y=ax を線形といい、切片をもつ y=ax+b をアフィンという(元々これを線形と言ってしまうのが用語の濫用)。 と思っております(ので制御の用語というわけでもない)。
@shinjimp3
しんじ
10 months
@Physical_eng 岡島先生のLMIか何かの動画で断りなく「アフィンである」という形容があったので、アフィンってなんじゃいと思って検索したらまたもや岡島先生の非線形制御の動画に行き当たってこの定義に辿りつきました。昨日のことです。 結局、入力に関して線形なこと?と思っています(アフィン変換もそう)
2
0
11
2
38
197
@ML_deep
HELLO CYBERNETICS
5 years
僕の何が凄いって、 機械学習も制御も信号処理も、統計も、はたまたプログラミングという広範なものですら、仕事に一切関係ないということですね。 仕事でギリギリ生きそうなのドキュメント読むときの英語くらいですわ。 やること最近ちょっと間違えてんじゃないかって思うようになりました。
2
17
189
@ML_deep
HELLO CYBERNETICS
3 years
みんな意思決定の責任から逃れたいんですよね。 本当は自由に何かを決めたいと思ってる人はそれほど多くない。外から決めてもらった、ないし決められた、と思えた方が楽なのでしょう。
@katzkagaya
Katsushi Kagaya, PhD
3 years
ユーザーが統計学に因果にまでお墨付を欲しがる姿が見える気がする。
1
27
85
0
54
185
@ML_deep
HELLO CYBERNETICS
6 years
ベイズの基本としては ・同時分布と条件付き分布の関係 p(y|x)p(x) = p(x, y) = p(x|y)p(y) ・周辺化 p(x) = ∫p(x, w)dw だけ知っていればいい。 同時分布が分かれば全部計算できるので、推論フローは 着目する確率変数の同時分布を求める いらない確率変数を周辺化で消す に尽きる。
1
22
185
@ML_deep
HELLO CYBERNETICS
5 years
車輪の再発明は発明が目的でない限り最高ですわ。 そもそも教科書で何かを学ぶというのは学問の発展と発明をなぞる、再発明そのものだと思う。
1
38
179
@ML_deep
HELLO CYBERNETICS
3 months
これはマジで知られてないと思います。 「相関を調べただけでは因果と思ってはいけないよね」という意識をしっかり持つ人ほど、因果が相関の部分集合と錯覚しがちな気がします。 かく言う自分も勘違いしてた時期があります。
@kenmcalinn
Ken McAlinn
3 months
必要条件ではないことはあまり知られてない模様。
3
129
600
1
35
182
@ML_deep
HELLO CYBERNETICS
4 months
ひねくれものなのか、重力のもとで最速経路の最適化が直線にならんという話と、人生云々がなんの関係があるのかいつも分からん。 お前の人生のラグランジアンって、既知なの?出発点と終点に拘束条件あるの?一人一人違くない?凄そうに見えてなんの示唆も与えん気がするんだけど。
0
21
178
@ML_deep
HELLO CYBERNETICS
3 years
完全にTensorFlowを殺しに来てる。線形代数計算ライブラリとしても使え(numpyAPIライク)、TFLite的なインタプリタや量子化ツールも備え始めた。
@ground0state
abetan
3 years
めっちゃ進化してるなあ Python用機械学習ライブラリ「PyTorch 1.8」がリリース、科学計算用フロントエンドAPIの追加など変更多数:CodeZine(コードジン) @codezine から
0
24
106
1
32
178
@ML_deep
HELLO CYBERNETICS
2 months
アカデミック・ハラスメントは実在する話だと思いますが、そういうのを告発する勇気を讃える風潮に乗っかって有ること無いこと言ってるなら名誉毀損で訴えられる覚悟も持ってほしいですね(大学にいた頃…なんて明らかに特定可能ですし)。 シンプルに誰がお前の成果要るのかと…?
@Keita_Saiki_
佐伯恵太
2 months
“大学にいた頃に教授5人くらいから研究成果を持っていかれそうになって戦ったこともありました” 村木風海さんの発言(1:02:17-)です。関係者ではないので真相はわからないのですが、過去の所属などから絞られてしまうのでは......?? そこまで言って委員会NP #TVer
30
263
987
1
40
178
@ML_deep
HELLO CYBERNETICS
1 year
なんか、やっぱりChatGPTの応用について国が乗り出すの変な気がする。マイクロソフトが製品に組み込んでやってしまいそうな上辺の応用を国を上げてAI活用だ!って変じゃない? 最終的に巨人に踏み潰されるか、生かして吸われるかしか未来が無い気がする。 規制/推奨するとか姿勢作りは良いけど。
2
33
174
@ML_deep
HELLO CYBERNETICS
5 years
正直、グラフ畳み込みネットがちゃんとグラフ信号処理の話から理論的につながっているって知りませんでした(というかまだ理解していない)。
0
32
170
@ML_deep
HELLO CYBERNETICS
5 years
#2019 年の目標 ● 座学系 ・関数解析 ・情報幾何学 ・機械学習の論文 ・枯れた深層学習を一通り網羅 ・暗号理論 ・コンピュータ・アーキテクチャ ● 実践編 ・TensorFlow, PyTorchいずれかをスラスラ書けるように ・Kaggleなどのコンペ参加 ・統計モデリング、機械学習の利用と啓蒙
0
12
172
@ML_deep
HELLO CYBERNETICS
4 years
重回帰分析も、主成分分析も、単なる行列計算で全然難しくないので、とにかく自力で計算導出を、一回やっておいたほうが良い。そして、計算という単にやれば分かる話をちゃんと終えてから、データを分析する、解釈するというより高度な手続きに入った方がいい。
1
30
175
@ML_deep
HELLO CYBERNETICS
3 years
ディープラーニングはもともと、ハイパラチューニングと札束バトル感が凄かったが、ここに来て、決定的になってしまったか。 早々にディープラーニングのSOTAを追うのはやめて、古典的な統計やベイズの方に軸足移しておいて良かった…。
@ImAI_Eruel
今井翔太 / Shota Imai@えるエル
3 years
議論の余地はあるとはいえ,かなり凄いことが書かれてます ・Transformerの性能はたった3つの変数のべき乗則に支配される ・理論上,3つの変数を上げ続ければTransformerの性能は無限に上昇 ・Transformerを利用する多くの分野が「お金をどれだけ払えるか?」の問題になる可能性
2
305
1K
0
38
173
@ML_deep
HELLO CYBERNETICS
6 years
PyTorchで学習する度にメモリ食うって話、まず疑うのは不必要な計算グラフを保持しているケースで for _ in range(epoch): total_loss = 0 for x, y in loader: y_ = model(x) loss = loss_fn(x, y_) total_loss += loss ←ヤメましょう print(total_loss)
1
30
175
@ML_deep
HELLO CYBERNETICS
3 years
データを見る、プロットしてみる、というところから始めよう。 データを増やしてけば"勝手に"精度が上がる、という期待は1回捨てよう。 深層学習は特徴抽出を自動で行う、というのも怪しいからやめよう。 単純なモデルから始めて、情報を整理しつつ、少しずつ補強しよう。 がようやく効いてきた。
1
10
173
@ML_deep
HELLO CYBERNETICS
3 years
日本で特にデータサイエンスが価値を生み出せる場所は、量産工場における異常検知+因果推論だと思っている。 問題は因果推論むずすぎワロタなところ。
3
17
173
@ML_deep
HELLO CYBERNETICS
2 years
残念ながら30代でその片鱗は見え始めたりしますね。なんなら新卒数年で素養が見え隠れする人もいます。不連続に老害化するわけではないので、字に惑わされず若いうちから気をつけておいたほうが良いです。 本質的には、文句は言う、意思表明しない、決めない、そんな感じの人です。
@Books_Apps
安達裕哉
2 years
・40~50代 ・知識だけはあるが、成果につながる本質的な話ができない ・プライドが高く、人のやっていることに対して指摘は多いが、自分の意見は(批判されたくないので)出さない ・男性 という属性の人々が企業内には多数見られ、彼らを「重箱の隅おじさん」と呼びます。たいてい、嫌われています
12
300
2K
1
37
172
@ML_deep
HELLO CYBERNETICS
5 years
これ本当に……。 深層学習ですか?とか強化学習ですか?と、本当によく訊かれますが、ロボットこそ地道な統計的信号処理とベイズ推論が活きてきます。
@icoxfog417
piqcy
5 years
強化学習 x ロボットの難しさについて解説したスライド。どんなアルゴリズムでも実ロボットの制御と結びついた瞬間に性能が劣化する、データを取ろうにもロボット高い、シミュレーションは正確性に問題あり、という中で複数のシミュレーション学習を複合するマルチタスク/メタラーニングに注目している
1
76
304
1
29
170
@ML_deep
HELLO CYBERNETICS
5 years
何回も言っているけど、 (深層学習を好んでなさそうな)須山さんのベイズ本が一番深層生成モデルを読み解く上で基本的な力づけになった。あれだけ丁寧に数式追っていると、何が事後分布を求めたい潜在変数で何が決定論的変分パラメータなのかをかなり強く意識できるようになる。
1
27
164
@ML_deep
HELLO CYBERNETICS
2 years
人間も全くできないし検討もついていないけど機械学習なら……と変に魔法的なものを期待せず、人間の経験と勘によってなんとなく既に成り立っている部分をコストの観点なども考慮して実直に機械学習に置き換えるという話なら世の中に役立つケースはバリバリあるはず。
1
24
165
@ML_deep
HELLO CYBERNETICS
5 years
これ結構反響あったのですが、 ミシガン大学教授 → 豊田中央研究所所長 となった菊池昇氏のスライド(理科大での公演)で 直感的には「アメリカの大学の方が個人の自由」で「日本の企業研究所の方が社会貢献」の感覚があるのですが、全くの真逆を述べているのが衝撃的。
@ML_deep
HELLO CYBERNETICS
5 years
アメリカも日本も経験している人からして、このスライドの内容の感覚はどうですか?
Tweet media one
3
64
290
1
43
165
@ML_deep
HELLO CYBERNETICS
1 year
年末年始のドリルで統計検定ワークブック買ったけど、現代数理統計の基礎とかと雰囲気全然違って、本当にドリルって感じだった。 実務者本当に一通りこれやっとけばいいんじゃないかや。行間が埋められない=知識不足だと思って補っていけば、結果的に必要な勉強できる気がする。
1
12
164
@ML_deep
HELLO CYBERNETICS
3 years
学部の卒研発表会にて、状態オブザーバー設計と統計的推論の話に対して、機械屋さんの教授が、 "センサつければいいじゃん。最近良いのいっぱいあるよ。調べた?(その研究意義あるの?)" と当時だと、意地悪だなぁ、と感じる質問をしてたのを思い出した。 マジだった。
@industrial_ds
マルチンゲール@生成AI❎製造業
3 years
車には異常系のセンサー(ノックセンサー等)が多数あることを最近知った。 エンジンと化学プラントは似ていると思うのですが、最近話題の異常検知がなぜ車では話題にならないのか、、? 思うに、車には異常系のセンサーが無数にあるので、機械学習を使わなくても異常検知できているから😀 #異常検知
6
24
173
2
32
164
@ML_deep
HELLO CYBERNETICS
5 years
自分がかつて書いた勉強記事なんて、大概あとで振り返れば物足りなかったり、誤解があったり、雑魚丸出しなわけですが、この恥ずかしく滑稽に見える経路を通らねば学びもなかったのだろうと思う。
1
16
161
@ML_deep
HELLO CYBERNETICS
1 year
これからはロボットの時代が確実に来ます。 AIが発展したと言っても単にデータだけでなんとかする方針は制御問題では苦しいです。でも数式オンリーの制御理論も、実世界では厳しいです。確実にデータドリブン制御が発展していきます。ってかさせていきたい。
0
27
164
@ML_deep
HELLO CYBERNETICS
3 months
ロボットが深層強化学習で焼畑になる2024年でございます。なんかよーわからんが動く、が当たり前になっていくと思います。 なので、 動かして何がしたいんですか? そのタスクに向いた設計や制御にするためにどうしますか? 辺りを詰められる人が重宝されると思います。
1
35
163
@ML_deep
HELLO CYBERNETICS
2 months
自分も大企業病だとかJTCあるあるだとか揶揄されるような事柄は、大きな組織が存続するために必要な事柄の副作用として出てくるものだと思っている。 大企業仕草は予めそういうもんだと覚悟ないし認識しておけるはずですし、少なくとも世間で言われるほど悪ではないんですよね。
@takuya_fukatsu
深津卓弥(Proxima Technology CEO)
2 months
JTCってよく使われる言葉ですが、アメリカでもゼネラルエレクトロニクスやヒューレットパッカードもかなりJTC的なので世界共通で大きな会社の宿命だと思うんですよね… そうなる仕組みを経済学的に解き明かした「意外と会社は合理的」なんかは結構面白い本でした
Tweet media one
1
15
110
0
23
160
@ML_deep
HELLO CYBERNETICS
1 year
MATLAB使ってみて、数学がある程度わかる人にとってはプログラミングの複雑なところをすっ飛ばせるので、マジで強力なツールになるなぁと思った(SimulinkとかSimscapeを合わせて使えるのが強力)。 最新の計算技術が今後も更新され続けるのかは分からないけど。
@neginegace
ヘルニアいっぬ(ง ˘ω˘ )ว ⌒ 𝕏
1 year
上司にキャリアプラン相談してきた 近い将来、海外でソフトウェア開発するかも ほんの数年前はこんな事は考えもしなかった MATLABで劇的に人生が変わってきてる もうボストンに足向けて寝れねえよ…
3
0
66
1
24
157
@ML_deep
HELLO CYBERNETICS
6 years
単回帰、重回帰も分からんけどニューラルネットワーク回帰は分かる。 ロジスティック回帰は分からんけどニューラルネットワーク分類は分かる。 主成分分析分析は分からんけどオートエンコーダは分かる。 みたいな人増えていそう。そして、多分ニューラルネットワークもわかってないと思う。
1
49
155