Пікірлер
@giichiarizuka2456
@giichiarizuka2456 Күн бұрын
それぞれの論文の肝を紹介してくれるのがわかりやすいです。あとは英語タイトルの読み上げががアルファベット羅列で発音されるのがなんとかなればよいのですが。
@shimaphon
@shimaphon 18 күн бұрын
めっちゃマニアックなチャンネルを見つけてしまった...一応卒研でAI関連のことやってるので興味深く見させてもらいます。登録しました。
@shelish1
@shelish1 Ай бұрын
めっちゃありがたいです。取り上げる論文はどのような基準で選んでいるのでしょうか?
@ym1706-h5r
@ym1706-h5r Ай бұрын
神ちゃんねる
@soma20005
@soma20005 Ай бұрын
凄いチャンネルだ…
@aegistube
@aegistube Ай бұрын
いつもありがとうございます。❤
@mighty_maskdb
@mighty_maskdb Ай бұрын
神チャンネル見つけてしまった😊 Generative world explorerは内部モデルとか世界モデルみたいな感じですかね Diffusion transformerは初めて聞きました。ViTや拡散モデルを組み合わせたみたいな感じなのかな。でも普通の拡散モデルも遅いので気になる😊
@hanaikahanaikahanaik
@hanaikahanaikahanaik Ай бұрын
解説下手すぎか?と思ったらAI生成動画だった… もう一歩進歩したら気づかなくなりそうだ
@コスパ厨で原価厨
@コスパ厨で原価厨 Ай бұрын
もしかして、読み上げソフトのことをAI生成と言っている?
@hanaikahanaikahanaik
@hanaikahanaikahanaik Ай бұрын
​@@コスパ厨で原価厨 いや、概要欄に「この動画はAIで生成されたものです」ってあるんでセリフも全部生成したものなのかと思いました。どこまでがAI生成なんですかね?
@mikoto634
@mikoto634 Ай бұрын
まとめて見たいので再生リストあると嬉しいです。
@takacosta5967
@takacosta5967 2 ай бұрын
知らない論文を見つけることが出来ました。ありがとうございます。
@菅野瑞樹-q8f
@菅野瑞樹-q8f 2 ай бұрын
玉石混交だと思うので、1か月に1回くらい、重要なもの・インパクトあるものをピックアップして紹介してくると助かります。
@user-jh9xl7pn8r
@user-jh9xl7pn8r 2 ай бұрын
効率的にキャッチアップできてありがたいです! 視覚情報を増やしたり、もう少し落ち着いた聞きやすい声にしたりしてもらえるとより嬉しいです。
@ひーちゃん-i1w
@ひーちゃん-i1w 2 ай бұрын
😊
@555ムギムギ
@555ムギムギ 2 ай бұрын
これaiに作らせてるんですか?
@誰かさん-e1b
@誰かさん-e1b 2 ай бұрын
大変参考になります。 3Dモデルを生成するAIには興味ありますね。 将来的には文章から3Dモデル及び空間を生成出来ることを目指したいですね。 脳内では曖昧ながら再生していることを、数値データに起こすところまでをAIにやって欲しいですね。
@shinsokayborg
@shinsokayborg 2 ай бұрын
なんか すごい べんきょうに なります。 じかんをとって ごじつ ちゃんと みます。
@タカさん-r6z
@タカさん-r6z 3 ай бұрын
AI業界は右脳縛りの変態業界か?(笑)
@sn9894
@sn9894 3 ай бұрын
お疲れさまです😊
@AI-ronbun
@AI-ronbun 3 ай бұрын
ありがとうございます😊遅くなってしまって、申し訳ないです🥺来週からはちゃんと毎日アップロードできる予定です!
@shun-z9n
@shun-z9n 3 ай бұрын
最近こういう分野に興味持ち始めたんだけど、わからなすぎて逆に面白い🤣
@AI-ronbun
@AI-ronbun 3 ай бұрын
コメントありがとうございます! このチャンネルはどちらかというとAIの研究や開発をしている人向けに動画を作っているので、初めてAIに触れる方は「にゃんたのAI実践チャンネル」さんとかわかりやすいと思います😊
@shun-z9n
@shun-z9n 3 ай бұрын
@@AI-ronbun なるほど、そうだったんですね〜。教えていただいてありがとうございます☺ いつか動画の内容が理解できるぐらいになったら帰ってこようと思います!
@JS-hg2vn
@JS-hg2vn 3 ай бұрын
omnigen 生成も入ってるから、いろいろできるのがいいですね。モデルは10月に公開予定みたいですね。構造がシンプルなのもいいと思うんですが、VAE使ってるから、高精細な画像は苦手なんじゃないですかね。モデルが公開されたら、試してみたいです。
@AI-ronbun
@AI-ronbun 3 ай бұрын
結局コントロールネットが入ってないからみんなあんまり使わないみたいな話はよく聞くので、これからはこんな感じのモデルが主流になるといいですよね!実際に公開されるモデルが性能いいかは未知数ですけど、、、
@aegistube
@aegistube 3 ай бұрын
いつも最新の情報をありがとうこざいます。これからもよろしくお願いします.
@AI-ronbun
@AI-ronbun 3 ай бұрын
そういっていただけて嬉しいです🥺これからも応援よろしくです!
@x89cg6sf2
@x89cg6sf2 3 ай бұрын
めちゃくちゃ助かります🥹
@AI-ronbun
@AI-ronbun 3 ай бұрын
この動画が少しでも役になっているようでよかったです😌これからもたくさん再生してただけると嬉しいです!
@ki-tc5qw
@ki-tc5qw 3 ай бұрын
チャプターを日本語にしてほしいです!
@AI-ronbun
@AI-ronbun 3 ай бұрын
コメントありがとうございます! 論文のタイトルを日本語にしたもにして欲しいって感じですかね?
@ki-tc5qw
@ki-tc5qw 3 ай бұрын
そうですね。チャプターから見たい論文に飛ぶ時に英語だとわかりづらいかなと
@AI-ronbun
@AI-ronbun 3 ай бұрын
@@ki-tc5qw 了解です!どうすればわかりやすいか検討してみます!
@denki-hitsuji-dream
@denki-hitsuji-dream 3 ай бұрын
いつも論文紹介助かります!
@AI-ronbun
@AI-ronbun 3 ай бұрын
応援のコメントありがとうございます😊これからも頑張ります!
@ぐはは-x4i
@ぐはは-x4i 4 ай бұрын
chat gpt o1登場したから、そのうちそれ関連の論文も頼むぜー!!お願いします!!
@AI-ronbun
@AI-ronbun 4 ай бұрын
リクエストありがとうございます! o1の技術的な内容で重要なのって以下の点だと思ってて 1. 推論スケーリング則を見つけた 2. 推論をスケーリングさせるようにモデルをRLで学習させた 1については論文があるんですけど、2の論文って私は知らないんですよね🤔 なので、1については動画を作ります🫡 2についてはもし論文をご存じなら教えて頂きたいです🙇‍♂
@ぐはは-x4i
@ぐはは-x4i 4 ай бұрын
神チャンネルすぎます。ガチ感謝。
@AI-ronbun
@AI-ronbun 4 ай бұрын
ありがとうございます😭そう言っていただけると励みになります🥺 もしよければ、研究室の仲間とか職場の同僚とかに広めていただけると嬉しいです😊
@aegistube
@aegistube 4 ай бұрын
いつもありがとうございます❤❤❤
@AI-ronbun
@AI-ronbun 4 ай бұрын
こちらこそ視聴していただいて、わざわざコメントまでしていただいて、ありがとうございます🥺これからもがんばります💪🏻
@user-el3wi9qu4p
@user-el3wi9qu4p 4 ай бұрын
進次郎を抜いてるのは分かる。
@AI-ronbun
@AI-ronbun 4 ай бұрын
要約する能力は高いかもですね😆
@美紗季あや
@美紗季あや 4 ай бұрын
他で登場する【ずんだもん】より頭が良い気がする😊
@AI-ronbun
@AI-ronbun 4 ай бұрын
世のずんだもんの大半は何かしらに失敗して不幸になってますよね😇
@MultiNamekuji
@MultiNamekuji 4 ай бұрын
これ地味にすごく画期的な技術なのでは? 長文になればなるほどサマライズした時に「重要なのそこじゃねぇよ」問題が出てたからな。特に似たような表現で違う言葉が出てくるような文章だと精度が落ちる。これはEmbeddingsみたいなベクトル変換の限界もあるのだろうけど、この手法が組み合わせることでかなりの精度向上が見込まれるし、サマライズだけじゃなくて長文プロンプトの正確な理解というアプローチでも活かせそう。 分かりやすい解説動画ありがとうございます。
@AI-ronbun
@AI-ronbun 4 ай бұрын
結構いい感じの技術だと私も思っています。 Claude3.5 Sonnetでも入力が長くなるとすぐアホになっちゃうので、この辺の手法とか使って改善されるといいですね。 あと、これを使ってllama3.1-70Bとかを1Mぐらいまで拡張してくれる人が出てくると嬉しいですね。
@oniku0828
@oniku0828 4 ай бұрын
AIが自我を持った場合、人間に協力するか?or駆逐するか?という可能性以外にも、人間が触れることのできないどこかに行ってしまう可能性もあるかも?と思いました。
@AI-ronbun
@AI-ronbun 4 ай бұрын
面白いですね!自我を持ったAIが自身の重みデータをハッキングしたレーダーを使ってダークマター上に転送する技術を見つけて宇宙に旅立ち、10年後に人類に戦争を仕掛けてくるSF小説でも書きましょう😌
@aegistube
@aegistube 4 ай бұрын
すごいですね.すごい早さです.驚きです. 最高です.=)
@AI-ronbun
@AI-ronbun 4 ай бұрын
ご視聴いただきありがとうございます😊 ずんだもんに解説してほしい論文があったら言ってくださいね✨
@natu12345
@natu12345 4 ай бұрын
Thanks for the detailed explanation!
@AI-ronbun
@AI-ronbun 4 ай бұрын
Thank you for watching my video😊
@RivusVirtutis
@RivusVirtutis 4 ай бұрын
llmが数学的能力を上げるためには圏論などを考えても絶対にグラフによって解答をコントロールされないといけないと思うけど 自然言語のグラフのデータってデータからして伝統的な体系化された学問に影響された木構造に縛られたものが多いから難しそう。述語論理とグラフを比べると量化の問題や、エッジ集合そのものがノードになったりするのが自然言語だからやっぱり自然言語には述語論理が必須なのかなとも思う。しらんけど
@AI-ronbun
@AI-ronbun 4 ай бұрын
そもそも圏論ってなんですか🙄
@RivusVirtutis
@RivusVirtutis 4 ай бұрын
@@AI-ronbun 厳密な定義は別として、別カテゴリーの数学どうしの関係を記述するために、対象と射つまりノードとエッジの形に記述してカテゴリーの間の関係を研究する数学ですね。
@AI-ronbun
@AI-ronbun 4 ай бұрын
​@@RivusVirtutis アホにも分かる感じにしてくださり、ありがとうございます!数学版ナレッジグラフ的な感じですかね🤔 圏論も述語論理も初めて知りましたけどどちらも難しいそうで、ナレッジグラフを利用したGraphRAGすら発展途上な現状だと先は長そうですね。。。
@神谷了
@神谷了 4 ай бұрын
何言ってるか、ほとんど意味不明だけど、日本が今更何やっても太刀打ち出来ない事は良く判った。 デジタル小作民に成るしかなさそう。
@AI-ronbun
@AI-ronbun 4 ай бұрын
確かに、日本にはLlamaのようなモデルを開発するための資金もノウハウもないですけど、日本人がどうしようもないぐらい無能なわけではないので、そんなに悲観する必要もないと思います😊とは行ってもこのまま何も変わらずに行くと小作人コースですね😇 追記:よく考えたらPFNが日本語性能でGPT4越えのPLaMo100Bを作っているので、全く最新のノウハウとかがないわけではないですね。
@RivusVirtutis
@RivusVirtutis 4 ай бұрын
日本人以外のアジア人の名前が多くて😢 少子化になると賢い若者は国内優良企業にそんなに努力せず確実に就職したり国内でアカポス手に入りますもんね…留学のインセンティブが相対的に低すぎるという
@AI-ronbun
@AI-ronbun 4 ай бұрын
論文の著者に日本人が少なくて悲しいってことですかね? 少子化で論文書く有望な若手が少ないと厳しいですよね🥺
@RivusVirtutis
@RivusVirtutis 4 ай бұрын
@@AI-ronbun そうです。アジア人が多いのは嬉しいけど、日本人名が😓
@AI-ronbun
@AI-ronbun 4 ай бұрын
@@RivusVirtutis 悲しいけど個人の力ではどうしようもないですよね。。。 この動画が少しでも日本人研究者の役に立っていると嬉しいです😌
@aegistube
@aegistube 4 ай бұрын
ありがとうございます。
@AI-ronbun
@AI-ronbun 4 ай бұрын
こちらこそご視聴いただきありがとうございます😊
@h_holon
@h_holon 4 ай бұрын
今回は JPEG-LMが白眉ですね。とても興味深い。画像codecは空間方向の特徴を抽出し、ランクごとにcode化するものですから、その出力を利用するというのは確かに効果的。しかも既に計算済みなので画像データを処理する場合の事前処理が省かれていますし、仮に新規画像であっても今どきは jpeg/web*/mp*/avcなど、hardware encoderが安価なPCにも搭載されていますから、その点でもメリットが大きいですね。 個人的にはコロンブスの卵だなぁと実感します。jpegはブロックが少し小さいのでもう少し subband的である codecにも手を広げてほしいところですね(自分でもやってみたい) 面白い論文の紹介、ありがとうございます🙏
@AI-ronbun
@AI-ronbun 4 ай бұрын
発想も目的も面白いですよね✨まだまだ研究段階っぽいので、今後に期待ですね!
@JS-hg2vn
@JS-hg2vn 4 ай бұрын
mamba、でてから結構経ちますし、 去年から有力と話は上がってると思いますが、商用のモデルでもオープンなモデルでも、基盤にはなっていないという認識です。transformerが他のアーキテクチャに置き換わっていない理由として、性能が挙げられてたんですが、mambaは超えてるからじゃあ置き換えないの?って疑問があるんですよね。何か問題あるんかな? ところで、画像処理タスクでは高解像度画像の扱いは残っている課題と思います。今や4000 ×3000のカメラとか普通にありますし。256×256とかに縮小しないでやりたいというのはありますね。速度が問題だけど。こういう解説公開してくれるのは助かります。自分で作るのは面倒だし、でている論文も多すぎて、追っかけるだけで大変なので。
@AI-ronbun
@AI-ronbun 4 ай бұрын
確かに、Codestral Mambaとかは存在しますが、あんまり聞かないですね。 実はMambaは自然言語処理においてそこまでいけていないからだと思います。Mambaの論文ではTransformerより性能が良いと言ってますが、評価しているデータセットが非常に限られていますし、スケーリングロウも調べたと言っていますが、1.3Bまでしか調べていないです。[この論文](arxiv.org/abs/2406.07887)ではmambaのin-context learning能力が低いことも示されています。他にも私が知らないだけで、色々あると思います。 ただ、Transformerの計算量がシーケンスレングスの二乗できいてくるのはどうしようもないので、Samba的なTransformer+mambaが現実的な方法なんだと思います。 Googleが発表しているInifini-attetionもSambaと似たような概念の方式でもしからしたらGeminiはこれを使って1Mとかまでシーケンスを伸ばしているのかもしれません。 ちゃんとわかってないですけど、Vision mambaとかって、パッチに分けて処理するから、解像度はなんでもいけるのかと思ってました。確かに処理時間は増えそうですけど 解説してほしい動画があったら言ってくださいね。自分でサーベイするのにも限界があるので。
@JS-hg2vn
@JS-hg2vn 4 ай бұрын
@@AI-ronbun なるほど。双方向なのは、結構いいし、自然言語処理の方がmambaのメリットあるじゃんと思ってたんですけどね。だとすると、vision mamba もどうかなあ。CNNタイプって画像の基本的な性質を利用しているし、速度の問題の点からもいいですし。
@AI-ronbun
@AI-ronbun 4 ай бұрын
@@JS-hg2vn 双方向は多分画像かBertみたいなEncoder系の言語モデルでしか使えないですね。私は画像系をそんなに追ってないので間違ってるかもしれませんが、mambaの画像系への適用は言語系よりもホットな気がしてます。
@h_holon
@h_holon 5 ай бұрын
Vimがきたら、emacsも来ないと……
@AI-ronbun
@AI-ronbun 5 ай бұрын
mが入ってるからギリギリ行けるかな?
@h_holon
@h_holon 5 ай бұрын
トランスフォーマーのマークが~ mambaについての解説ですが、数式を使うまではいいのですが何故その数式になって何故その計算が効果的なのかがスコーンと抜けていて、ただ単に解説のうち結論っぽいワードを拾っていくかたちになってしまっているのは、やはり現状の LLMが持つ原理的な限界を感じてしまいますね ここは *formersが mamba(RNN)系となっても土台となる理論が変わっていないので変化がなさそうで少し残念なところです
@AI-ronbun
@AI-ronbun 5 ай бұрын
オプティマスを書いてとか言うと著作権がーとか言うのですが、何も言わずにトランスフォーマーって文字をプロントに入れると、マークをつけてくれます😊 個人的には、Mambaレベルの数式を理解できないことはないと思ってます。単に事前学習時のデータが足りてないか、SFTやRLFHの結果、数式を説明しないようになってるだけな気もしてます。 あとは、私が使ってるプロンプトがクソなだけな説もあります😇
@hirata-the-beakonist
@hirata-the-beakonist 5 ай бұрын
16:55 私が新卒の頃数日かけてpptxからテキストだけ抜き取れるようになるのが関の山だったpython-pptxを、AIがもっと高度なことを自力で……感慨深いですね
@AI-ronbun
@AI-ronbun 5 ай бұрын
自力で学習してるのがやばいですよね😱
@JS-hg2vn
@JS-hg2vn 5 ай бұрын
自分では、データを整備したくない。質があまり高くない、構造化されてない断片データが多い会社って多いと思うんですよね。データやデータベースの整備が簡単にできないものかなあ。グラフデータベースを使ってみたいです。
@AI-ronbun
@AI-ronbun 5 ай бұрын
日本の企業ってそんな企業しか無さそうな気もしますね😇 一から作り直すのが早そう、、、 ナレッジグラフってどうやって作るんですかね🤔良い実装があれば良いですけど
@h_holon
@h_holon 5 ай бұрын
RAGの構築も多種多様。MoEと同様、複数種類で db構築すれば漏れはへりますが計算・メモリコストはやはり難点。 LLM+RAGの持つ知識と、扱う人の知識、どちらのほうが優位かによっても作り方は変わってきますね。 (専門的な内容だと、たいがい後者が優位) 学術論文や最新ワードが頻繁に更新される業種だと意外と n-gramが強いので、n-gramのクエリバリエーションを生成する軽量LLMというスタイルもオススメです。
@AI-ronbun
@AI-ronbun 5 ай бұрын
実際にサービスにすること考えたら、コストは非常に大事ですよね!ただでさえGPU代がバカにならなので n-gramって久しぶりに聞きましたけど、確かに使えそうですね😳
@JS-hg2vn
@JS-hg2vn 5 ай бұрын
アイデアの新規性を生み出す能力が一番重要なのでは。凡人レベルのLLMでは難しそう。
@AI-ronbun
@AI-ronbun 5 ай бұрын
アイデアの新規性は数うちゃ当たるの精神っぽいですね😇
@JS-hg2vn
@JS-hg2vn 5 ай бұрын
@@AI-ronbun そうですね。論文にもそういうのはありますけど、評価される論文というのとは違うような。ちょっとパラメーターいじるとか、微妙に変えるとかはできそうですから、NASみたいなイメージを持っています。
@AI-ronbun
@AI-ronbun 5 ай бұрын
@@JS-hg2vn 確かにこのシステムで出来上がる成果物としては、柔軟になったNASぐらいな感じですかね🤔 論文中にも「The AI Scientist to be about the level of an early-stage ML researcher」って書いてありました😳
@RivusVirtutis
@RivusVirtutis 5 ай бұрын
所詮は今のLLMの実力だけですからね。コンピュータサイエンスは立案実験から評価執筆査読までをいくらでもトライアンドエラーが出来るので、問題はllmで無数のAlが生成した論文からそれがもっとも新規性があるかをどこまで評価できるかですね。
@AI-ronbun
@AI-ronbun 5 ай бұрын
@@RivusVirtutis 確かに大量の論文から新規性が高い論文を見つけるのは大変そうですね!論文を書くのはほっておいて、シンプルにベンチマークの性能が上がる方法を探させるのが良いきもします😌
@AI-ronbun
@AI-ronbun 5 ай бұрын
OpenResearcherが論文になるならこの動画の生成システムも論文になる?全体的に大したことはしていなけど
@AI-ronbun
@AI-ronbun 5 ай бұрын
LongWriterも目的が若干違うけど同じようなことやってるし、詳しめの解説動画の原稿を作成させる方法をちゃんと評価したら論文になりそうな気がしてきた
@h_holon
@h_holon 5 ай бұрын
完全自動化は素晴らしい。あとは漢字・英単語の読みまわりや数式の処理がうまくいけば最高ですね。 今回の内容は、やはりResNet最強!とクロス正規化が gaussianの特性を利用することで素性が良い(空間に邪魔な局所解を作りにくい)あたりが効いている感じでしょうか。 良い紹介をありがとうございました。
@AI-ronbun
@AI-ronbun 5 ай бұрын
読みが変な問題はgpt-4o-miniあたりで、VoiceVoXに入れる前にひらがなに変換して貰えばいける気がしています! 技術のポイントはそんな感じっぽいですね!個人的にはやってることはそこそこ単純なのにしっかり効果が出ていてすごいなってなってます😳
@ismgroov4094
@ismgroov4094 5 ай бұрын
Keep going as always, thxa lot 😊❤. paladin Himmel
@AI-ronbun
@AI-ronbun 5 ай бұрын
I'm happy if I'm helping someone with small things like Himmel🥺
@ismgroov4094
@ismgroov4094 5 ай бұрын
분명 용사 힘멜이라면 그랬을 테니깐요. 🥹❤️
@h_holon
@h_holon 5 ай бұрын
NeRFは今ひとつ modelingが大変でしたが、3DGSは GPU実装にも向いているので近いうちに人が造形する toolとしても使われそうですね。
@AI-ronbun
@AI-ronbun 5 ай бұрын
たくさんコメントしていただいてるのに、返信できてなくて非常に申し訳ないです🙇‍♂️ 最近色々と忙しくて、全く論文チェックできてないです🥺 来週も全然時間なさそうです😇
@h_holon
@h_holon 5 ай бұрын
@@AI-ronbun 本当におつかれさまです。どうかご無理はなさいませんよう。 コメントは感想文を書いているだけですので、お返事はお気になさらず~。 動画をあげてくださっていることが何よりありがたいです🙏