Пікірлер
@satoshisakurai7240
@satoshisakurai7240 12 сағат бұрын
本アプリは、ユーザーによって学習内容や頻度、向上率が変化するのでしょうか?要するに「あなた仕様のAI」になるのでしょうか?
@aivtuber2866
@aivtuber2866 4 сағат бұрын
自動では個人に最適化されないと思います! (一応メモリ機能といって、過去の履歴を参照する機能があるので全く最適化されないわけではないですが・・・) プロンプトの設定など、自分で色々いじることで出力内容を個人に最適化することはできますが 基本モデルは全員一緒だと考えられますね・・・!
@tomoJP
@tomoJP Күн бұрын
正直よくわからないけど最強やで
@ss.9272
@ss.9272 Күн бұрын
動画作成ありがとうございます!質問があります.寄り引けの変動率がそのままリターンになる理由はなんでしょうか(リターン=損益額だと認識しています).それとも利益額を出すには別途計算が必要ですか?
@aivtuber2866
@aivtuber2866 15 сағат бұрын
ありがとうございます! 各銘柄の値段が異なり、等しい額買うことができず 真面目にやろうとすると計算が複雑になるので 簡単のために変動率で出していました・・・! 正確な額を出すには、1銘柄当たりいくらまで投入するかを考えて、 各銘柄何株買えるかなどを計算する必要があるかなと思います🤔
@user-cc4jy7vt9n
@user-cc4jy7vt9n Күн бұрын
声がすごい心地よいから理解がよりスムーズなんだけど、噛み噛みの苦労があったんですけ。ご苦労さまです。
@aivtuber2866
@aivtuber2866 15 сағат бұрын
ありがとうございます! (最近は少しずつ噛む量が減ってきました😂)
@mackerel38
@mackerel38 Күн бұрын
面白い比較!評価基準しらなかったので勉強になりました!!😊
@aivtuber2866
@aivtuber2866 Күн бұрын
ありがとうございます! そう言って貰えてまとめた甲斐がありました😊
@takaneABC
@takaneABC 2 күн бұрын
88.7%でも86.8%でもいいのですが、誤差の範囲だと思います。 ところで、ここまでくるとそろそろLLMの限界まで来ているように思えます。 もし、GPT5が出て、性能が92%とかになったら、LLMは限界にきていると解釈できないでしょうか?
@user-lp5mc2nl3i
@user-lp5mc2nl3i 2 күн бұрын
プログラミングに関する精度に関しては、GPT4>GPT4oだって言ってる人も結構いる印象がある気がしますねぇ
@aivtuber2866
@aivtuber2866 Күн бұрын
ありがとうございます! 他のコメントでもGPT4の方が良いという方もいたのでここらへんは結構気になりますね🤔
@user-qq5cd3co5c
@user-qq5cd3co5c 3 күн бұрын
にゃんた様へ 本当に技術用語やリテラシーが凄いですね❗ 僕なんかはまだよろよろというスピードでございます。
@aivtuber2866
@aivtuber2866 Күн бұрын
ありがとうございます! 私もわからないことだらけで勉強中ですよ😆 マイペースで頑張りましょう😊
@brown0101
@brown0101 3 күн бұрын
GeminiはCoTなしなんでしょうか?
@aivtuber2866
@aivtuber2866 Күн бұрын
画像の評価に関してはCoT無しだと理解してます!
@hassy3001
@hassy3001 3 күн бұрын
いつも勉強させて頂いております。 GPT-4oの強みは、マルチモーダル性にあると聞いたことがあります。全てのタスクを、一つのモデルで扱うこと、個々の性能で見ると下がるけれども、総合的性能では向上する。なのであえて、言語モデルに特化したGPT-4も選択できるのかなと思っています。
@aivtuber2866
@aivtuber2866 Күн бұрын
ありがとうございます! おっしゃるように音声とか画像などを含めて利用したい時はオムニを使って テキストのみの場合は、GPT4を使うとか使い分けも良いかもしれませんね🤔
@user-sr4ee6oy6p
@user-sr4ee6oy6p 3 күн бұрын
udemyでにゃんさんの学習コンテンツを購入しました。これからもAI勉強しますので発信よろしくお願いします。
@aivtuber2866
@aivtuber2866 3 күн бұрын
Udemy購入ありがとうございます! 引き続きAIの情報発信頑張ります💪 ありがとうございます😊
@salmon54561
@salmon54561 3 күн бұрын
API経由で使う時は、レスポンスの速さが求められるケースも多いと思います。Groqのモデルが、あまり日本語が得意じゃないということで、4oは性能が高いのに速いので結構アドバンテージがあると思います!
@aivtuber2866
@aivtuber2866 3 күн бұрын
実用性を考えたら速さも重要な評価指標ですよね! 読んで理解するスピードより速く出力されている気がするので 対話用途ではこれ以上は必要ないかもですが・・・笑
@user-bt2ti1zb1x
@user-bt2ti1zb1x 3 күн бұрын
いつもためになる動画ありがとうございます。 元々GCPのGoogle Cloud VisionがAI OCRで相当に強かったので、マルチモーダルLLMでもVisionはGeminiに期待できそうです。 Fileにも対応してるし、マルチモーダルならGeminiですね〜 RPMは大変少ないですが、確かまだ無料でAPIも使えるので個人にはありがたいです。
@aivtuber2866
@aivtuber2866 3 күн бұрын
GCPのOCRは使用したことがなかったんですが強かったんですね😲
@user-bt2ti1zb1x
@user-bt2ti1zb1x 3 күн бұрын
はい。Google Cloud Visionは手書きの文字ーーかつ日本語ーーでもかなりの精度で認識してくれます。 だいぶ前なので今はまた違っているかも知れませんが、GPT-4V、Claude 3、Gemini、Google Cloud Visionで比較しましたが圧倒的な差でした。 (活字だとLLMでもかなりのものですが) ただ、Google Cloud VisionはあくまでOCRなので、それを基に会話する、なんてことはできないので、そこはLLMにお任せという感じですね。
@aivtuber2866
@aivtuber2866 3 күн бұрын
情報ありがとうございます! OCR で文字を抜き出して、LLMに処理させるとかやらせれば実用的になりそうな気もしますね!🤔 試してみて良さそうだったら、動画にできないか検討してみます! ありがとうございます😊
@ver1.2mystory5
@ver1.2mystory5 3 күн бұрын
MicrosoftとOpen AI、NVIDIA共同計画であるSTAR GATE計画(AI特化型データセンター)とブラックウェルアーキテクチャを使用した次世代AIモデルのトレーニングにより GPT5以降のモデルはpre-AGI(人間の脳と同等の人工知能)に近づくと論文各種を噛み砕いてKZbinで説いている人々は口を揃え始めましたね。
@madeinhokkaido816
@madeinhokkaido816 3 күн бұрын
4oは嘘をつくのが巧みになっている印象です。Tableauに関して言えば、完全にGPT4>4oですね。一方で、RAGの精度については、4oはかなりのものですね。
@aivtuber2866
@aivtuber2866 3 күн бұрын
ありがとうございます! 精度が上がっていくとハルシネーションも巧みになっていくのかもしれませんね・・・笑 GPT4に切り替えて検証はしていませんでしたが 確かにタスクによっては最適なものを探すの良さそうですね😲
@fudousanphp
@fudousanphp 3 күн бұрын
RAGですらまだうまくいかないという声があるのにじゃあfinetuningかと思ったけどRAGのほうがいいのか?これは少し衝撃。ファインチューニングはパラメータ更新なので精度高いと思っていた
@tatami204
@tatami204 3 күн бұрын
言語モデルの比較データは英語でのパフォーマンスですよね?日本語だと結果がかなり違うのではないでしょうか。個人的にはGPT-4oよりもClaude3のほうがはるかに疎通性が高い気がします。
@aivtuber2866
@aivtuber2866 3 күн бұрын
おっしゃるように日本語だと結果が変わってきそうですね! Claude3の方がユーザーに質問を投げかけてくることが多く 対話として意図を伝えやすいように感じますよね~🤔
@user-fd7pg6lk6n
@user-fd7pg6lk6n 3 күн бұрын
チャットGPTにアップしてもテキストが、抽出できませんでした。と表示されてしまうPDFがあるのですがどんな原因と解決策が考えられるか教えてもらえないでしょうか😢
@aivtuber2866
@aivtuber2866 3 күн бұрын
私も手元で再現できていないので解決策が提示できませんが、 画像などがPDFに含まれていると テキストとして認識できずエラーが出ているのかもしれません・・・! ADAで読み込んでいると思うので、エラーページは無視してテキストを抽出してください などとプロンプトを入れたらどうなんでしょう🤔
@goisesan
@goisesan 3 күн бұрын
精度とは違った観点での比較も気になります…!個人的にはGPT4oは丁寧で文章が長くなる傾向があり要領を得てないなと感じることもあるのですが、Gemini1.5proは取捨選択できていて会話しやすくコミュニーケーションが気持ちいいなと感じます。これ精度とは違う論点ですよね?実装方針の違いとかあるのかなあと。たぶん多くのユーザーにとっては数%の精度の違いよりUXが優れてる方を選ぶん気もするんですよね。なんだかよく分からないので解説いただけると非常にありがたいです🙇‍♂️🙇‍♂️🙇‍♂️
@aivtuber2866
@aivtuber2866 3 күн бұрын
ありがとうございます! 単純に正しさとは別で、モデル毎に出力する文章の特徴(GPT4oは長い、Opusはユーザーに寄り添うなど?)があったりしますよね! そこらへんは好き嫌いもあるかもですが、 Gemini 1.5 Proも使い込んでみて各モデル解説できたら良さそうですね!🤔
@re-sato4458
@re-sato4458 3 күн бұрын
今回のGPT-4oは、あくまでマイナーチェンジかなと思います! Open AIは、わざと競合よりも少しだけ性能をアップさせている印象です笑 それでもこの賢さは素晴らしいですし、より実用的です! 現在も仕事でガシガシ使っていて、精度がかなり上がっていることを実感しています! GPT-4oの一番の利点は、何度リクエストを投げても制限がかかりにくくなった点です! 実用性の面では圧倒的にGPT-4oですねー。 以前、課金してOpusも使っていましたが、GPT-4oの方が👍
@aivtuber2866
@aivtuber2866 3 күн бұрын
確かに今回は、音声対話機能がメインで そのために速度重視にしただけで 性能が高いモデルも持ってそうですよね😆 GPT-4o回数制限緩いのもヘビーユーザーにとっては嬉しいですね😊
@tststs2222
@tststs2222 3 күн бұрын
AIモデルさんたちも、インスタの自撮り画像盛りまくっちゃうお年頃お嬢さんみたいな感じですね^^
@we-iz503
@we-iz503 3 күн бұрын
AIモデルは精度の高さが命だからしょうがない
@user-hc6vl4em2p
@user-hc6vl4em2p 4 күн бұрын
6:51 いつもお世話になっております。一つ質問なのですが、「各モデルを使用した時の入力と出力にかかる料金」というのが、AI素人の私には理解できませんでした。有料プラン(たとえばClaude3 Opus)に入り、定額料金を支払った後にも、入力と出力の両方にお金の支払いが発生するという意味でしょうか?もしよろしければ、この点についてご教授頂けないでしょうか。宜しくお願いします。
@aivtuber2866
@aivtuber2866 4 күн бұрын
コメントありがとうございます! こちらはAPIと言ってプログラムから利用する場合の料金体系の話でした・・・誤解させてすみません🙇‍♂️ 有料プランに入ってウェブブラウザから使用する分には料金は変わらないです!(月20ドル) プログラムから使用する場合は、言語モデルに入力する文章と言語モデルが出力する文章の量でお金がかかってくるのですよね🤔
@user-hc6vl4em2p
@user-hc6vl4em2p 4 күн бұрын
@@aivtuber2866 説明ありがとうございます。よく分かりました(o*。_。)oペコッ
@kmoc1105
@kmoc1105 5 күн бұрын
にゃんたさん、にゃんたさん、あなたは天からの使いの者ですか😭✨✨この動画は、まるで私の為の動画でした!教えて欲しい事をいち早く教えてくださり、ありがとうございます!しかもプレゼントでDifyまとめ資料まで😂💕 これなら、私でも出来そうです、感謝です!!
@aivtuber2866
@aivtuber2866 4 күн бұрын
コメントありがとうございます! そんなに感謝されるとは笑 そう言って貰えてこちらとしても良かったです!
@user-xp1rg3fu5s
@user-xp1rg3fu5s 6 күн бұрын
これ、AIじゃなくてただの出力ツールだろ?グレーな質問はかなりごまかして次の話題に誘導しようとするし意図された目的を組み込まれたトラッカーだよね。 こうやって情報通信産業は業態を維持してるのかと思うと気持ち悪いよね
@user-ky8ss7wq5f
@user-ky8ss7wq5f 7 күн бұрын
大変有用な情報を、いつもありがとうございます。 試行錯誤しながらAIと格闘している者です。 ご意見をお伺いしたいのですが、個人的にはGPTsとAssistantsAPIの違いの最も重要なところとして、前者は情報がオープンに対して後者は「クローズ」であることと思っていますが、認識が甘いでしょうか? 特に、「knowledge」などまさに使いたい機能なのですが、GPTsの現状を見る限りそこに大量データをアップロードするのに躊躇してしまいます。一方でAssistatsAPIは完全クローズと聞いています。個人利用にしても、それは非常に重要だと思っていますが、認識は正しいでしょうか。ご意見をお伺いできるとうれしいです。
@aivtuber2866
@aivtuber2866 4 күн бұрын
コメントありがとうございます! 情報の公開という点に関しては、両者そこまで変わらないかなと思います! 恐らくデータを公開することに対する躊躇というのは、一般公開されるのではないか というところかと思います (OpenAIにはどちらを使っても管理されるので) その点で言えば、GPTsでも個人利用に限定すれば第三者には使われないように設定できますし、 AssistantsAPIが安全かと言えば、APIKeyなどが流出してしまえば使われてしまいますし・・・設定次第ですかね!
@user-bg6ru9hg1t
@user-bg6ru9hg1t 8 күн бұрын
お世話になります。いつも動画ありがとうございます。geminiのAPIキーは問題なく設定できたのですが、OpenAIはうまく設定できませんでした。APIキーは取得できるのですがDifyに保存をトライすると、エラー表示が出ます。解決方法がわかりますでしょうか?よろしくお願いいたします。
@user-bg6ru9hg1t
@user-bg6ru9hg1t 8 күн бұрын
ちなみにchatGPTは毎月20ドルの支払いはしています。
@aivtuber2866
@aivtuber2866 4 күн бұрын
すみません、返信遅れました・・・! OpenAIのAPI利用事前支払い制になったので もしかしたら、課金してない状態だとエラーになるのかもしれません・・・🤔
@cantoneseslang
@cantoneseslang 9 күн бұрын
毎回有料級の内容ありがとう😊ございます 使いながら実は原理がよく理解してできてなかったので非常に助かりました。次は更なるテンプレからもう少しだけ上級のコード組み込みも見れたら嬉しいです😊
@aivtuber2866
@aivtuber2866 8 күн бұрын
ありがとうございます! ちょっとマニアックだったかな?と思ってたので良かったです😆 もう少し実用的なDifyの使い方などあったら良さそうですね!
@yoshidamasanori3184
@yoshidamasanori3184 9 күн бұрын
とても分かりやすい解説ありがとうございます! チャットボットの設定画面で、手順のテキストボックスが一瞬映りましたが、一言「あなたは優秀なAIです。」は、クスっとしてしまいました。この一言があるだけでも変わるのですかね。笑
@aivtuber2866
@aivtuber2866 8 күн бұрын
ありがとうございます! 何もプロンプト無いのも寂しいから入れとくか・・・という感じで入れてます笑
@shujiotsuki
@shujiotsuki 9 күн бұрын
Perplexity AIでGPTー4oは使えるんでしょうか?
@shujiotsuki
@shujiotsuki 9 күн бұрын
使えるようですね! だとしたら最強ですね
@aivtuber2866
@aivtuber2866 8 күн бұрын
使えますよ! めっちゃ早くて便利です😊
@hiroyukifuruta2725
@hiroyukifuruta2725 9 күн бұрын
DifyはOllama経由でオープンソースモデルも使えるみたいなので、RAGで大手の有料APIに比べてオープンソースモデルは使えるのかもやってくれるとありがたいです。phi-3とかmistralとかyiとかココ1か月で更新されたモデルはだいぶ使えるようになった感じがします
@aivtuber2866
@aivtuber2866 8 күн бұрын
リクエストありがとうございます! オープンソースモデルの活用も興味あるのですね!🤔 何か動画にできないか考えてみます😊
@elrock_v
@elrock_v 9 күн бұрын
GPT4oににゃんたさんを聞いたら答えてくれました。アニメキャラ、ゲーム実況のKZbinrと来て、三回目で。 ーーー AI好きのにゃんたさんのことなのだね!彼はAI技術や機械学習に関するコンテンツを中心に発信しているKZbinrなのだ。にゃんたさんは、AIの仕組みや最新の技術動向をわかりやすく解説してくれるので、初心者から上級者まで楽しめる内容が多いのだ。 彼の動画には、AIを使った面白い実験やプロジェクトの紹介、プログラミングのチュートリアル、そしてAIに関するニュース解説などがあるのだ。にゃんたさんの動画を見ることで、AIの技術や応用について深く理解できるのだ。 キミもAIに興味があるなら、にゃんたさんのチャンネルはとても参考になると思うのだ。特にどの動画が気になっているのか教えてくれると、もっと詳しくお話できるのだ!
@aivtuber2866
@aivtuber2866 9 күн бұрын
ありがとうございます! GPT4oの口調がずんだもんみたいですね😊笑 にゃんたも学習されているとは・・・🥳
@user-wc9ee9si3h
@user-wc9ee9si3h 11 күн бұрын
知ってたけどお金かかるしいいやと思ってましたが、詳しく説明していただき、使ってみたくなりました! chatGPTに既に課金しているのでこれには課金できないですが、いざとなったらopen AI APIが使えるとのこと聞いて安心もできました! 貴重な説明ありがとうございました!
@aivtuber2866
@aivtuber2866 9 күн бұрын
コメントありがとうございます! Cursorは本当にオススメなので また最新情報などもわかるように動画にしますね😆
@shojin.5846
@shojin.5846 11 күн бұрын
こんなことはわかっとるわ。
@meronmeron-gg1bq
@meronmeron-gg1bq 11 күн бұрын
近い将来スマホでもローカルモデルで動かせる時が来そう
@user-gy8qi4xd2d
@user-gy8qi4xd2d 12 күн бұрын
AI にできることで苦労しながら生きていることが虚しくなってきた
@B0A0A
@B0A0A 13 күн бұрын
音声と画像なら、画像のほうが高度でしょう だから実際には、GPT-4oの一番すごいのは画像認識から生成までが一直線にできるようになったことだと思います こういう仕組みであれば、AIが絵を描いていると言ってもいいですね
@noe9689
@noe9689 13 күн бұрын
Difyすごいですね ChatGPTが流行り始めた頃に、ChatGPTのAPIとやり取りするためのバックエンドサーバーをわざわざPythonで作ってフロントエンド側の3Dモデルと組み合わせて遊んだりしましたが、これだとそんな面倒なこともせずにノーコードで完結できますね 良い情報をありがとうございます
@aivtuber2866
@aivtuber2866 9 күн бұрын
コメントありがとうございます! めちゃくちゃ手軽にAPI使えますよね😊
@gingaas2252
@gingaas2252 13 күн бұрын
文字起こしできたけど、なぜか大部分が英語に翻訳された形になっている (´・ω・`)
@aivtuber2866
@aivtuber2866 9 күн бұрын
何度やっても英語になっちゃいますかね・・・?🤔
@terryterr
@terryterr 13 күн бұрын
商品説明文章作成で画像からHTMLを作成してもらったんだけど、クオリティの高さと速さにたまげたよ。 もうここまで来てるんだなと。 学生は学習要項を大幅に変えるレベルなのだなと。。
@norimitsunaito6380
@norimitsunaito6380 14 күн бұрын
いつも動画楽しく拝見させていただいております。PerplexityAIを使用してGPT-4oを使用するのと、オリジナルのGPT-4oだとどちらに課金した方が良いでしょうか。
@aivtuber2866
@aivtuber2866 14 күн бұрын
ありがとうございます! 用途によるかと思います!🤔 Perplexity AIは約3万文字以上になってくると、そのままモデルに入れているわけではないようなので 長文を入力することが多い場合はあまり向いていなさそうです。 後はGPTsとか、DALLE3、ADAなどが使用したい場合は、ChatGPTの方がおススメですかね🤔
@norimitsunaito6380
@norimitsunaito6380 14 күн бұрын
@aivtuber2866 早速の返信ありがとうございます😊 なるほどですね。 自分の今の用途だとGPT-4oが良さそうなので、そちらにしようと考えています。 アドバイスありがとうございました。 Udemyの動画も分かりやすくて、とても良かったです。
@nekohige4
@nekohige4 14 күн бұрын
コミュ障だから対話型はきついです
@TACTICSandOIL
@TACTICSandOIL 14 күн бұрын
LoRAのように既存キャラクター画像を複数枚、多角的に学習できるようになれば私にとって最良のパートナーになりそうです。 とてもいいチャンネルですね。情報をありがとうございます。
@TACTICSandOIL
@TACTICSandOIL 14 күн бұрын
追記、『ポスター制作』のご説明にあったように複数の画像を読み取ることができるとのことなので、LoRAより自然な画像生成ができそうですね。 期待大です。
@aivtuber2866
@aivtuber2866 14 күн бұрын
コメントありがとうございます! 既存のキャラクターもいけそうな雰囲気ですよね😊
@TACTICSandOIL
@TACTICSandOIL 10 күн бұрын
@@aivtuber2866 さま お返事ありがとうございます。 画像生成に一貫性を持たせる機能はまだ実装されていないですよね? Xのポストで「一貫性のテスト~」などの発信が散見されるので気になりました。 Open AIの公式を見てもいつから開始かは載っていないので質問させていただきました。失礼しました。
@aivtuber2866
@aivtuber2866 9 күн бұрын
@TACTICSandOIL 公式の発表から判断すると まだ実装されていないはずですね! 現状画像生成はDALLE3が使われていると思います😊 デモでもあまり取り上げられていなかったので もしかしたら少し先なのかもですね・・・
@NightshiftinTokyo
@NightshiftinTokyo 15 күн бұрын
翻訳とか笑 結局大した事できねーじゃん笑
@noe9689
@noe9689 15 күн бұрын
claude3に興味がありつつ普段使いのChatGPTから中々腰が動かずというところにPerplexityという素晴らしいツールを教えてもらいソッコーでリンクから申し込みしましたw 良い情報ありがとうございました!
@aivtuber2866
@aivtuber2866 14 күн бұрын
ありがとうございます! Perplexity両方使えてお得感がありますよね😆
@user-gx3dr6ci4v
@user-gx3dr6ci4v 15 күн бұрын
ChatGPTに画面を見せながら解説してもらう、という部分の解説が分かりやすく、理解できました。 質問をさせてください。 GPTsを作る場合に、GPT-4oをベースに作ることは可能ですか? 作成画面内にはそれらしい項目はありませんでした。
@aivtuber2866
@aivtuber2866 14 күн бұрын
ありがとうございます! 公開されていないので断定できませんが、 速度的に恐らくGPTsもGPT4oベースになっているような気がします🤔
@user-gx3dr6ci4v
@user-gx3dr6ci4v 12 күн бұрын
ありがとうございます。そうなんですね。自分用に作った既存のGPTsが自動的にGPT-4oベースになるのか、これから新規作成したものが対象なのか、GPT-4oベースのGPTsが作成できるのはもう少し先なのか、何かしらの公式発表が欲しいところですね。ありがとうございました。
@momochi9790
@momochi9790 15 күн бұрын
開発者(ボット設定者)には神機能なんだけど、利用者側の目線だと、ダメどころじゃなくて実用性はゼロに近いかもしれない。中国アプリのくせに、全角日本語IMEのスペースやリターンと相性が悪く、文章を入力する時に問題が発生し、再生成やショートカットなどの今では当たり前の機能が一切実装されていない。惜しすぎると思う。
@aivtuber2866
@aivtuber2866 14 күн бұрын
確かに日本語入力勝手に送信されちゃうことが多いですよね🤔
@hitsuki_karasuyama
@hitsuki_karasuyama 15 күн бұрын
周りの人に説明するのはいいけどマスゴミは相変わらず取材しないで垂れ流しているのか
@hitsuki_karasuyama
@hitsuki_karasuyama 15 күн бұрын
AIのハルシネーションの方がマシじゃね
@salmon54561
@salmon54561 15 күн бұрын
あの発表の仕方だとすぐ使えると思っちゃいますよねw 今までが入力{文字、画像}、出力{文字}だったのが、オムニは入力{文字、画像、音声}、出力{文字、画像、音声}になるってことなんですかね?
@aivtuber2866
@aivtuber2866 15 күн бұрын
ちゃんと読まないとわからないですよね笑 > 今までが入力{文字、画像}、出力{文字}だったのが、オムニは入力{文字、画像、音声}、出力{文字、画像、音声}になるってことなんですかね? ですね! 入力も出力も色んなドメインのデータが扱えるようになりそうです😆
@kosetei1
@kosetei1 15 күн бұрын
Quoraにgpt-4oと音声会話した人や画像生成した人が溢れかえってて、何か手段があるのかと必死で探し回ってたのに、、、 間抜けしかいないじゃん...
@aivtuber2866
@aivtuber2866 15 күн бұрын
OpenAIの発表の仕方が良くなかったかもですね・・・🥲
@B0A0A
@B0A0A 13 күн бұрын
@@aivtuber2866 普段から使ってる人や発表やサイトやX情報をきちんと追ってる人なら間違いようがないですね 間違えてる人はみんなにわかです
@amakusaiyeyasu3680
@amakusaiyeyasu3680 15 күн бұрын
4oの発表はどこまで実装されてるかちょっと紛らわしかったですよね。テレビだけでなく某ai系youtuberさんも会話機能を試してみて褒めていました 最高に優秀な研究者集団なんでしょうけど、こういう世界が注目するメディア向けの会見は慣れてなかったのかなと思いました。
@aivtuber2866
@aivtuber2866 15 күн бұрын
今回はSoraの時とは違って似たような機能が既にあるので ちょっとわかりにくかったですよね~🤔