新型Switch、OrinベースのT239を使用
■ このスレッドは過去ログ倉庫に格納されています
https://twitter.com/kopite7kimi/status/1403200552473829377 This is a preliminary picture of T234 in Wikipedia. Very clear. So why do we always guess? Nintendo will use a customized one, T239. https://twitter.com/5chan_nel (5ch newer account) BFもエルデンも出ない任天堂おじさん さよならwwwwwwwwwwwwwwwwww X2か?で話題になって一つ下のX1だったから乗るのはXavierベースかな >>183 そもそもX2は便宜上そう呼んでただけで存在しなかったし >>177 クラウドゲーミングで流すデータを縮小させて、届いた映像をTensorコア持ちの端末で拡大すりゃいいじゃん! の話やで >>186 それとっくに終わったDLSS1.0の話 dlssは魔法だぞ 何がやばいかって今でも凄いのに、これから更に精度が上がるから 謎の半導体メーカーはデータ含めてCS市場を完全に手放したくないだろうから良い条件+本気だろうけど 価格考えるとどうなんだろうな 本体部分のみの乗り換え前提価格で何とかって感じかな フルセットなら普通に次世代機として出すレベル 据置きと携帯の垣根をなくしたSwitch 新型と次世代の垣根もなくすのである >>176 魔法のDLSSはnVidia公式発言だぞ フルスペックorin CUDA2048 クロック1000Mhzで4Tflops クロック1500Mhzで6.1Tflops クロック2000Mhzで8Tflops これを削ったスペックダウン版を使うんだな どれだけ削るかが問題だ >>144 検索してもそんな情報は見つからないけどな それただの希望的観測では? >>188 ストリーミング用の学習をさせると、ストリーミング固有のノイズの出方の特徴から除去することを学習しちゃうのが面白い仕組み バッテリー革命の発明ってよくニュースになるけど実用レベルではまったく出てこないよな🙄 >>189 DLSSを普及させりゃ 高額な自社のグラボがガンガン売れるんだぜ まず間違いなくそんな一気に性能上げるわけないっての任天堂なのに 現行の値段とさほど変わらんぐらいの性能の範囲内でしか採用されないっての >>190 水面下ではクラウドゲームが動いてるから、今までのように悠長なことは出来ない どちらにせよ次世代機はUE5フル対応余裕でPS4を上回るもんに仕上がるベースが有るんで SIEやMSは縦マルチ継続なんてしてる場合じゃないんだよな はてさて、本当にこんな高性能なものを採用するんすかねー XavierはCPUがNVIDIA独自設計で熱いから携帯機向きじゃない。X2も同じ。NVIDIAがARM IP使ったSoCをX1以来久しぶりに作ったのがOrin CUDAはごっそり削って512だろ 任天堂は今のより上ならええやろくらいにしか思ってないだろうし >>192 フルスペのT234と今回情報が出たT239は番号が離れすぎてるから相当削るだろ 1Tflopsも怪しいわ >>207 それと台湾の足リークのクロック1000Mhzを合わせるとたったの1Tflopsなんだけどw 箱1以下w >>201 任天堂にはハード逆鞘はあり得ないからないだろ DLSS2.0は単なるアプコンとどう違うんだ? 誰か詳しい人解説よろしく >>206 その下に5wもラインナップ。10TOPS ここらへんは任天堂ってよりnvのマーケティングみたいなもんだから予想つかんね 性能に関しては毎度のことズコーってなるだろうけど、やっぱリークは楽しいわ PS4や箱1はGCN1だしなぁ ampereなら1TFでも実効性能で上回るんじゃね ブラッシュアップで性能上がるのは歓迎だけどあまり上げすぎても次どうするんだって話にならんか >>214 ネタとして楽しめてるからいいけど やってる奴らの意図はなんだろね 新型作ってるの自体は濃厚だからハードル上げてがっかりさせよう作戦なんかな >>218 いや学習するのは使用する前でしょ ユーザーが使うときはそこは関係ないはず Orin CortexA78AE x12コア、GPU Apmrer世代 x2048cuda Tensor x64コアなので Switch用はCortexA78C x8コア、GPU Ampere世代 x1024cuda Tensor x64コア クロック1.5GHzくらいで15-20W程度? cudaの計算はMaxwell世代256cudaから4倍でなく2倍の512cuda+α相当ではあるけど世代進化分もあるので3倍程度見積もっても 768MHzでクロック2倍で現行Switch比で4-6倍の1.5-2TFLOPS程度かなと。 実行速度はPS4〜PS4proくらい? 見た目はDLSSでPS4pro以上って感じ? 思い切って5万で出して 普及価格帯の3万に値下げできた時期に また5万のハイスベ機を出すループ >>217 プロセスの微細化(で4倍) と 半導体に割く原価(倍) を倍々ゲームで 世代アップしてきたツケが、今の PS4⇒PS5 の性能アップ鈍化なんだよね 半導体にかける原価を上げると、どんどんハードビジネス(世代交代)が苦しくなる >>217 プロセス行き詰まってるから 今世代は長いぞ >>207 そんくらいだろうな思ってる 高スペックのSwitchを求めてないってのもあるけど PS5とXSXが中心になるようだと nvがこれまでやってきた独自機能で囲い込みする戦略が破綻するからな まだ流れが変わるところまではきてないけど内心焦っててもおかしくはない >>211 AIさんにゲームの同じ場面を フツーにレンダリングしたものとスパコン使って8Kとかでレンダリングしたものを 大量に見比べさせて学習させる するとAIさんが低画質映像から高画質映像に変換できるようになる >>227 マジなら今年中じゃね? 年末前の盛り上げ要員 どうしても高性能機が欲しいのねw どうせ出ても現状機に毛の生えた程度のもんしかでんぞ 5nmのorinの場合ざっくり計算 ダイのうちCPU、GPU、Tensorが12nmのXavierと同配分で実装と仮定するとワッパが2.5倍くらい(30wXavierが30Tops、40wOrinが100Tops) XavierNXの10wモードで614gflopsなので10wで1535gflopsくらいの性能 なのでGPU1ghzならCUDA数は768 ただし、このリーカーはこのSoCは8nmの可能性もあると言っているみたいなのでわからん switch自体の寿命を延ばしたいって考えなら間違ってないのかね 次世代機もこの系統でしょ >>211 アプコンは単純に引き延ばして、足りないドットを補間してそれっぽいキレイな映像に見せる処理 DLSS は素人が描いた絵を、プロが同じものを描いた絵に変換してくれるサービス 仕組み的にはこういう違いがある >>231 だとすると、クラウドで粗い映像が送られてきたものを手元のゲーム機のDLSSで高解像度にするのも可能では? ちょっと質問が曖昧だったかもしれんが、俺の興味はクラウド+DLSSっていう仕組みを 否定してる人がいるのはなんで、っていうところ ( >>187 とか) こんなにスペックアップして一体いくらで売るつもりなんだよ… 安くても五万位するんじゃないの? >>237 いやクラウドは元の3Dデータを受け手は持ってないんだからDLSSはできないでしょ やるならDLSSで高解像度化された画面をゲーム機が受け取ることになる orinはまあ考えられなくもないけどDLSS真面目にやる気なのかっていうのと任天堂がやるか?っていうのがある 謎の半導体メーカーがSwitchで倍プッシュしたくなったか 馬鹿みたいに肥大しているゲーム容量はDLSSと圧縮技術で抑え込めるとしてSwitchでも長くなってきてる読込み時間は解決出来るんかな? ストレージも2TBまで規格上いけるとしてもまだ1TBまでしか出て無いしROMも64GBもリーズナブル価格採用されるか? >>238 でも先行量産型とか名前つけて最初はそんくらいで売って欲しい 転売屋のリスクが大きくなる 次世代SwitchはiPhone11,12レベルの性能あればもう十分だし、携帯も可能だよね。 >>184 X2は存在してるけど、どういう意味で言ってるの? X1比で対して16nm化、Pascal世代化、バスq28bit化したけど、性能の割に値段高くコスパ悪いからドローンかに搭載実績ある以外ほかに採用されなかった。 先日X2搭載のJetson nanoシリーズにJetsonTX2NXが発表された。 https://developer.nvidia.com/embedded/jetson-tx2 >>239 つまりDLSSで高解像度化するときは、元の(粗い)グラフィックを作ってる部分と連携とってやってるってこと? そういう説明なら納得できる >>237 採用した世代の都合で箱やPSが実用レベルで採用できるのが次世代なっちゃうので・・・ AMDは ax+b=c を効率よく計算する命令を RDNA2 にも載せなかった DLSSは機械学習の進化のラッキーな副産物という生まれなので、 機械学習を優先しなかったことでハンデ背負っちゃった 性能上がって高解像度のテクスチャとかも使えるとしてそうなるとゲームの容量もでかくなる SDカード以外の外部ストレージ対応させないと窮屈になりそう >>211 メーカーからゲームのグラフィック素材をもらう NVIDIAのスーパーコンピュータで16Kでレンダリングする それをAIに学習させる そのデータを元に16kの絵を 低解像度でレンダリングしても再現できるようにする そうすると720pとか1080p内部レンダリングで 出力解像度1440pや4kで実解像度と同等か もしくはそれ以上に精細に表示出来る フレームレートはあがって、かつ、綺麗にできる >>237 お前がクラウドを理解してないのはよく解った >>239 DLSS 2.0 は学習必要なくなったんやで https://www.nvidia.com/ja-jp/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/ 汎用モデルを組み込むだけなので、すぐに使えるよ! って状態 その学習モデルを特化して作れるけど、サイズ自体 100MB もしないのでプレイ前にダウンロードすればいい >>249 それは分かるんだけど、学習データっていうのは使う時にはユーザー側にあるわけでしょ だったら低解像度のグラフィックをクラウドから送ってもらって、手元で高解像度化も可能なのでは、 ってこと >>252 嫌々、レンダリングするための3Dデータがなければそもそも使えない仕組みでしょってこと 別に2Dゲームを綺麗にする技術じゃないし クラウドは今のとこハード性能より通信速度がネックだからな >>214 ズコーまで行けば御の字 そもそも発表されない可能性も大有り >>231 書き直したスパコンからの情報を受け取らにゃならんのか DLSSってネットに繋ぎっ放しにしないと機能しないのかな? >>253 エンコードする用が単純に4分の1まで減らせる(縦横2分の1サイズで作るなら) 通信帯域も遅延が問題といっていた従来の3分の1、5分の1で済む そもそも単純過ぎる計算なので機械学習コアあれば1フレ遅延も起こさないレベルで処理できる いろんなところで発生していたあらゆる遅延が減らせるのが特徴 >>254 やる意味がねーだろ クラウド元で16KなりDSLL後のデータ表示してたほうがいいじゃん >>240 むしろ低電力や本体価格抑えたいのを是として低スペックにならざる得ない任天堂にしたら渡に船だろ >>250 X2自体は2016年には存在してたから当時搭載の噂にもなった。 結局、性能コスパ、熱などの問題でX1採用が妥当だったんだが。 >>254 …それ、クラウドでやる意味ある? そもそも描写っていういちばん出力かかるところを外部に丸投げ出来るのがクラウドのメリットなのに >>237 あまり詳しい方じゃないから間違ってるかもしれんが スパコン使って学習がすごい時間と金がかかる クラウドでストリーミングされる映像はたぶんエンコ時に ブロックノイズやバンディングノイズやら乗るし 半透過するUIも画面に重なるだろから それ用に学習させなおさないといけないんじゃないだろうか 学習コストを回収できるだけの客がクラウドで集まるか あと低画質とはいっても元画像もHD以上くらいは必要で現状よりも軽くはできないから 送られてくる映像の遅延も現状並みで更にそこからDLSS分1フレームくらい遅延が増加する DLSS対応してるGPUが搭載されてるならその場でレンダした方無駄が無いかと DLSS単機能チップとかないし ディープラーニングの一般論の話をすると、学習データっていうのは ニューラルネットの間の結合を指定するパラメータのことで、 一回学習データをもらうと後はそのニューラルネットにデータを入れるだけ DLSSが同様の仕組みだとすると、一回学習データをもらった後は映像を流し込むだけなんで、 使う側としては単なるアプコンと同様に使えるよね だからクラウドから粗い映像送ってもらっても高解像度化できるはず 俺の疑問は、DLSSはそういう普通のニューラルネットと違う要素があるのか、ってこと RTX3000シリーズが当初予定してたサムスン7nmじゃなくて8nm使ってるのは ダイの大きさ起因による歩留まりの悪さなんでこれが解決するなら8nmに拘る理由は無い orinのトランジスタが170億個 これを半分に削ればサム7(95mTr/mm2)で一般的なモバイルプロセッサの100mm2前後に納まるから そこまで酷い歩留まりにはならないんじゃないかと SwitchはPascalの再来だな 夢みたいなこと言わずに任天堂が逆ザヤなしで39800円以下で売れる性能で考えようぜ PS5だって蓋を開けたらRTX2060相当だったろ PS4なんか1050tiだ いい加減学習しよう そもそもクラウドはクライアント側に頼らないのが大前提なのに クライアント側のDLSSガーとかクラウド全否定でしか無い 任天堂としてはDLSS動くコスパのいいチップを謎の半導体メーカーに注文しただけだろうな 革ジャンが「いいチップあるんですよ」とorinを提案してきたってだけの話で コストや熱量があるからガッツリ削るだろうからゴキちゃん安心しなw >>255 > 3Dデータがなければそもそも使えない仕組み そこを大きく勘違いしてる 単純に2Dに描画された後の画像を機械学習コア特化の意味不明な計算式(計算量固定=これのことをモデルと称する)で拡大するだけなんよ(マジで) 2Dに描画された映像の特徴を使って処理するから、テクスチャとかポリゴンとか、 そもそも2Dとかも関係ない HUDとして画面に描画されているただのフォント文字やアイコンすらキレイ(っぽく)なるシロモノ DLSSはスイッチ向きな技術ではある 携帯モードではオフ、テレビモードではオン >>266 そもそもクラウドを経由させる意味ないよね >>264 粗いデータを送るだけでよければクラウドでも通信量減るよね、って話から始まってるんで NvidiaからしたらPS5と箱SX潰すチャンスだからな 何かRTX2xxx出始めの頃DLSSオンにしたら消費電力がクソ増えてアッチアチになるみたいな話を見かけた気がする 記憶違いだったか解決したのか 横からだけどDLSSって ○Kでグラフィック製作→それを元データとして低解像度画像を入力して同じレベルの画像が得られるまで試行→低解像度な状態でパッケージング→プレイするときにも同じ動作で○K表示 ってこと? >>265 > DLSS対応してるGPUが搭載されてるならその場でレンダした方無駄が無いかと モバイルはCPUが弱々でメモリに制限あるので ワラワラを管理する処理や、大量のテクスチャ使って同じように作るのは出来ないのよ メリットはPC画質+PC物量をモバイル画面に持ってこれること ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.5 2024/06/08 Walang Kapalit ★ | Donguri System Team 5ちゃんねる