おーすごいCloudflareの障害長引いてChatGPTも使えんとは。まさにインターネットが壊れた。
おーすごいCloudflareの障害長引いてChatGPTも使えんとは。まさにインターネットが壊れた。
あこれMLaPPじゃなくて新しい方か.じゃあAdvancedの方も出るんですか!!?!??
住んでるマンションにとある有名人が住んでいることを知り,なんとも言えない気持ちになったが,どうなんとも言えないかを言うためにはその人=住所特定情報を出す必要があるのでインターネットでは言えず
転の風になる!!!
そっちが秘書にメール打たすならこっちもLLMに一任せんとやってられんが???
ツィーーーーッ!
データ可視化して仮説構築して最適化モデル組んで,無いデータはある程度仮定入れたり擬似データ作って回して効果を見せる,みたいな一連の流れ,LLMのおかげでもう一人でやった方が早くなってきてる気がする.
本のタイトルに悩んで、そういえばあの類書のタイトルちょっと気持ち悪いよなぁと思って見に行ったらその点がケチョンケチョンに貶されているレビューに遭遇してぞわっとした。
bsky、ツイートを一時保存できないの辛い
本当にLaTeXのエラーの情報量のなさ勘弁してくれ。それか証明を3文字以上書くと全体の参照解決ができなくなるので「ここは余白が狭すぎて〜」を2文字で表現できないか?
vscodeで\varepsilon を入力するのに @ve とかで補完されるの助かってるが、thetaに対応するのが q であることをよく忘れてひたすらトライアンドエラーして最終調べる時間で取り返している。
執筆で煮詰まってふと聞いてる曲の解釈を確認しようとしてサイト漁ったら浅くて読めてない解釈かメチャクチャなポエムばかりで許せなくなって歌詞解釈サイトを立ち上げたくなる、しばしばある。エヴァ新劇で煮詰まってゴジラとかのオレオレ解釈出し始めた庵野の気持ち、わかるよ。
これ常に分からなくなり、「この前Grammarlyって書いちゃった、今日は気をつけよう」と思ってGrammerlyって書きました。
Thank you grammerly!
なんかVSCodeのGrammerly拡張が機能してないなと思ったらGrammerly側でSDK全体がディスコンになってたのかよ・・・
> The fault is with Grammarly themselves who have unexpectedly removed their Text Editor SDK...
www.reddit.com/r/vscode/com...
twitter最近本当に良くないので禁煙飴的にbskyをすることとします
太客かFIRE資金があれば・・・または源がいれば・・・
なんもんからんものを人に薦めていたとは
独立の壁を書いてください!!
客仕事も嫌いじゃないので結構来るもの拒まず引き受けてきたが,最近やや好ましくない分野に偏りつつあるのでそろそろ本当に転の風を感じる
専門書,「そんな細かいこと誰も気にしてないやろ」ということを延々と注釈とかにまでわたって議論していることがあるが,査読コメントをつよつよ人間に限ってちゃんと読んで返してくれて,彼らのレベルに寄った記述になってしまうんだなと
査読者氏から「こういうの読みたかった」との感想が到来したのでもう少しだけ頑張るか…
本,書いても書いても終わらんし,直しても直してもワケわからんこと書いてあって直し終わらん
LLMが出してくれるアイディアの薄っぺらさ、この話に通じる気がしてきた。薄く広く知識があるので何かちょっとしたシステムの実現アプローチとかを列挙するのとかにはいいんだけど、ハイコンテクストからの「つじつま合わせのアイデア」の方はできないんだよな。「今こういう状況で、いろんな制約を満たしつついい感じになるアイデアないか」みたいなやつ。
良いアイデアいりません|品田遊(ダ・ヴィンチ・恐山)
note.com/d_v_osorezan...
で実際ブチ切れたってワケ。
イタリアで食ったトリュフとイカスミと水牛のモッツァレラが忘れられないくらい美味しくて日本でも折に触れてトライしているが全くダメ。モノが違うのか鮮度なのか他の素材とか水が違うのかわからないけど兎に角風味の深さとそれでいて嫌な感じじゃなさがイタリアのその辺のレストランで何度も食べた感じに程遠い気がする。ちなみにイタリアといえばポルチーニ茸も有名だけどそれはあんまりだったな。感動するほどではなかった。
レビューかなり良かったのにリジェクトされてブチ切れる夢見た。元々確率10%くらいかなと思いつつ、学会名に掛けたシャレタイトルを旅行中に思いついちゃったので勢いで書いたやつなので期待してなかったが、レビューが全体的に好意的だったので出張予算確保とかパスポート再取得とか動いてたら徐々にもう通った気になっていた。夢は無意識の警戒装置なんだなぁ。
最近は他人が書いた既存研究のコードベースをもとにいじっていて複雑だから単に気乗りがしないというのもあるのだけど。深層学習を使った研究で標準的な書き方、FWとかってないのでしょうか!?特に、敵対的訓練やってると秒で発散したりするのでsklearn的なI/Fだけでなく学習曲線全体を記録しておきたいとか、Epochも(早期終了ではなく)後知恵的にモデル選択したいというのがあり、評価指標との分離とかデバッグとか含めてやりやすい標準の書き方をずっと検討している。
最近、実装と実験が億劫になってきた。これが``老い''なのかしら。機械学習コミュニティは理論と実験の両方が求められるのは良いことだと思っていたが、労力さえかければ何とでもできるものに労力を掛けたくないなとか、ベースラインが足りないというけど理論から考えれば比較的明らかだよなとか、ablationとかも無限に選択肢がありうる中でなんかパッと考えつく狭い範囲の変更に対して試してみよみたいな、あんまりやっても仕方ないような細かいことを査読で指摘されるのウーンという感じ。
かといって学習理論とかに行くかというと、実用的じゃないことしかほとんど言えないようなとこで戦ってもなというのがある。
Nostrは投稿を削除できないのがやっぱりかなり非人間的な感じがしたのでATには期待。