10GBの動画を100メガバイトに圧縮するソフトがアメリカで開発される。HDDの容量が増えるぞ! [153490809]
■ このスレッドは過去ログ倉庫に格納されています
もうテラバイトHDDは買わなくて吉野家
ソースは2↓で
https://sakechazuke.com/ 昔の動画整理してると低画質のくせにファイルサイズがでかくて驚く 非圧縮10GBを100MBに圧縮って普通の動画サイトでもそれぐらいやってねーか? ただの動画エンコかよ
今でもh265でそれなり画質なら超圧縮いけるだろ そういえばどこにも画質を落とさずになんて書かれてないね そりゃ、2時間単色のベタ面だけの動画ならイケるんじゃねーか?動きがある動画は難しそう。 無圧縮の4K動画だと1分でも数GB行くぞ
それをH.265でエンコードすれば100MBとか普通じゃん MP3だって50MBのWAVが3MBとかになるからよくよく考えたらすごい技術だよね そもそも今の動画自体が
ゴリゴリの不可逆圧縮で
情報捨てまくった残りなのに。 可能かどうかで言えば可能
人間だって遺伝子情報だけで何億の多細胞化するんだしな 一時期コーデック乱立したな
MP4とMP3で落ち着いてよかった ハッシュアルゴリズムを上手く使えば今より圧縮率は高められそう
特定バイト数までのハッシュと重複パターンの辞書を用意しておいて、データとハッシュ値+indexを相互変換できるようにする
素人考えだけどどう? hevcやav1vp9はグラデ部分がavcより劣るし圧縮し過ぎはやっぱ無理なんだよ 画像を連続させるんじゃなくて
各場所の発光発色覚えさせる方法やろか >>11
MPEG2の時点で非圧縮の1/10~1/20、H.266/VVCならそこからさらに1/8まで圧縮するから10GBを100MBってそんなに突飛な話でもないんだよな AIにタイトル言えば生成できるようにすれば1KBになるだろ youtubeにフルHD動画あげたら30GBのが3GBくらいに縮まってるぞ
画質もぱっと見違いわからねえしAVやアニメあげても非公開なら警告来るだけで垢バンされないし >>34
その辞書データ天文学的な容量になるけどな 自分で圧縮しようぜ
ビットレート低くするだけで容量減りまくるぞ どこまで減るかはわからんけど技術的には可能だろう
動画ってのはようするにプリレンダムービーなわけだから何かしらのソフトウェアで内容を砕いて数値化して保存
再生するときにはその数値を元に映像をリアルタイム作成すればいいだけだし
実質音声+数値データだけに納められる
いずれは音声も再現できるようになるはず エロ動画全部h265/hevcで圧縮し直そうかと思ったけどRTX 2060だとめちゃくちゃ時間かかるんだよな AIで特徴量の入力だけをバイナリデータにしておけば
かなりの圧縮率にはなりそう。
ただ、再現できる精度がほぼ死ぬような気がしなくもないけど。 >>54
まあどういう印象持ってもらっても構わないけど現在の画像やら動画のデータって重複した色情報が多いわけよ
んでそれをベタに出力してる
赤赤赤赤
青青赤青
赤赤赤赤
みたいな感じで
それを圧縮時に全体の色情報を抜き出して別のものに置き換えるだけで
赤4
青2赤青
赤4
的な感じでデータ自体を減らせるわけ もうこれじゃ抜かねーと思って消して
1年後くらいに思い出して激しく後悔するのもういや >>57
続けて書くと動画ってのは何らかの動きがあるもののわけで、
物理の法則的にAからBに移動する際のデータを全て保持する必要もないわけね
だから映像自体も細切れにして例えば1/60フレームならその中の数フレームを抜いて代わりに出力ソフト側で中の映像を加工して吐き出せば抜いたフレーム分だけ容量を減らすことができる
加工された映像なんて偽物やんって感じるかも知れんが似たようなことやってる手ぶれ補正とかよりも加工度は下 エロ動画はちょっと画質荒いくらいが丁度いいよな
エロ動画専用だろこの技術 >>62
まったく話が理解できてなくてワロタ
ほんとこういう人かわいそう
文脈が追えない人間はここまでアホになるのか 動画を無理やり数十MBにするなら
リアルメディアが一番画質良かった記憶 もっと簡潔に書くとグーグルカメラとかsnowやらその手の加工カメラのデータは元のデータを解析したデータに修正を加えたものを再構築して保存してるわけ
だから本来なら画像なりを再構築しないで生データのまま保存して開くさいにデータから画像なりを再構築すればファイル自体の容量はかなり減るわけ >>72
うん
全く求められてないことを延々と説明してくれてありがとう
誰も読んでないと思うけどw 映画二本分が100メガと考えるとMPEG4の時点ですでに達成してねーか? >>70
おまえは圧縮はどうあるべきって概念が古いままなんだな >>72
それ再構築用の元データってのがクソみたいに巨大で、
かつクラウドに保存されてつねに新しいパターンを学習してアップデート
されてるから出来るんだよ。 >>79
ファイル作成と再生だけならそんな面倒くさい段取りなんていらんよw
極論言うと再生する側が生データを毎回コンパイルするだけだから AIで失った情報を再構築なんてのはできるから
そこらのアルゴリズム次第だね。 >>81
お前は浦島太郎か?
50年前なら画期的なアイデアだと思うよ 何かしらアプリかwebサービスが必要で、サービス終了したら見れなくなるんだろ? 円周率利用した圧縮とかどっかで言われてた気がする
本当に出来るのかすら知らんが 最近youtubeの動画がかなり軽くなったよね
普通にプレイヤーで再生できるし、何が起こった >>51
jpgより圧縮できる規格なんて昔からあるよ もう保存すらしないよストリーミングで見たいときに見れるし 見る時に時間かけて解凍しないとダメとかだったら
やめろよ 画質を犠牲にすればいくらでも出来るんだ
相当とかいうインチキばかり >>87
そもそもjpegの圧縮にcosが使われてて
この派生がmpeg系
ある頃から浮動小数点の計算が重いので整数で
計算できるように変えたのはH264かH265あたりから >>76
古いのはおまえだろ
>>58とかただの古典的なランレングス圧縮じゃねーか
もっと高度な算術符号化、CABACとかそれですらもうとっくの昔にやってる >>25
DQN先輩が圧縮率に驚いてる時ワクワクしたよな >>34
25年前にプログラマーだった俺が作ってたよそれ
作りながら計算してて数百キロバイトですらテラバイトクラスの辞書が必要なことが分かってやめた
なおインデックスの情報量だけですら元データの容量を超えて無意味 >>34
全パターン用意したらハッシュ値とそれで示せるデータは完全にイコールになるでしょ
だから一切圧縮されない >>81
映像素子から得られる生データのほうが圧倒的にサイズ大きいんだけど >>87
できない
円周率が完全ランダムデータだとすると、圧縮したいデータサイズとそのデータが円周率内に存在する位置を示すためのデータサイズは似たような感じになる
まあ似たようなであって個々のケース的にはデータ量が減るも場合もあり得るだろうからそのケースだけ使用すればわずかに圧縮できる可能性はあるけど エロ動画が溜まってきたから丁度圧縮しようかと思ってた
どうせ見ないのばっかだから消せばいいんだけど…消せない これがおじさんがよく言う100メガショックってやつ? >>112
あれは100メガ(ビット)ショック!では
100Mbit >>113
ファミ通がビットとバイト混同させてたの思い出す 単純な圧縮でもわかったようになりたかったら数学やりなよ 今の動画形式自体が破綻無いように滅茶苦茶チューンして非可逆に切り捨てまくった結果だろ?
ここから更に圧縮なんて出来るわけ無いじゃん。 AV1とVVCって新しい動画圧縮の開発が進んでいるようだがどっちも死ぬほど重い シリコンバレーであったやつじゃん
そのうち戦争引き起こすぞ >>118
そりゃそうだろ
前後のフレームまで調べてとにかく削れるところは
削るという処理をするんだし 4K動画を再生しようとしたら電源が落ちるうちのPCでは利用不可なんだろどうせ >>118
HEVCはCPUGPU処理速度向上でなんとかしたけど、今回は大丈夫なんかね >>123
もう個人がエンコードすることは考慮されてないんだよ
YoutubeやNetflixのような配信業者はエンコードに100倍の時間かかっても30%サイズダウンできればそれだけでめちゃくちゃコストダウンになる
別に個人利用なら今でもH.264程度の圧縮率で相当録画できるからそんな困らないし AV1はintel arcでエンコードできるんだろ? >>106
赤くしとくわ
ハッシュって衝突しないように作られてるんだけどな
ハッシュをなんも分かってないね >>126
分かってないのはお前なのでは?
一般的なハッシュ値はコリジョンが発生するし
1つの入力に対して必ず1つの異なる値を取る場合は区別して完全ハッシュって言うでしょ
圧縮の符号化の場合後者にはなると思うがそれってハフマン符号とか算術符号に相当することを言おうとしてるだけに見える
一切圧縮されないというのは確かに異論がある
よく出る長いビット列に短いハッシュでは無いが値を割り当ててその対応をテーブルに書けば全体は短くなる訳で 将来的にはAIが生成するために必要な情報だけ保存しておけば良いようになる >>128
MD5とかって言葉聞いたことない?
実際使ったことあればわかると思うけど、例えば1メガのファイルをMD5に入れると128バイトのハッシュに変換されて出てくる
これが衝突しないようになってるから圧縮もできるでしょって話 >>132
まず元のデータとハッシュ値がコリジョン起こさないというのが勘違い
同じ値になる元データは無数に存在する
ただmd5とかはそれが非常に起こりづらいだけ
それにハッシュ値から元データは生成できないだろ
出来たら情報理論的におかしい。情報エントロピーとか聞いたことない? 10MBのゲームを数KBまで圧縮したのを見た時はすげーとなったけど
動画をここまで圧縮するのって全く動かない動画じゃないと無理じゃね ■ このスレッドは過去ログ倉庫に格納されています