「ビッグデータ」は死んだ [626636967]
■ このスレッドは過去ログ倉庫に格納されています
「ビッグデータは死んだ(Big Data is Dead)」というブログが波紋を広げている。AIトレンドが興隆する中、エンタープライズITや事業戦略を牽引するバズワードの賞味期限切れが迫っているようだ。 ブログの著者は、Google BigQueryのプロダクトリーダー、エンジニアリングリーダー、創業エンジニアを務めたJordan Tigani。Google BigQueryの創業エンジニア。いわゆる「ビッグデータ」を扱うBigQueryに長く関わった人物である。 彼はビッグデータというバズワードが喧伝される一方で、ほとんどのプレイヤーはビッグデータを実際に扱っていなかった、と述べている。「私が学んだ最も驚くべきことは、『Big Query』を使っている人のほとんどが、実際にはビッグデータを持っていないことでした」。 Tiganiの論旨は以下の通り。 彼がBigQueryのチームに在籍していたとき、「大半の顧客は、データストレージの総容量が1テラバイト以下だった。サービスを多用する顧客の間では、データ保存サイズの中央値は100GBをはるかに下回っていた」と言う。「数年前、私はBigQueryのクエリを分析し、年間1000ドル以上使用する顧客を対象にした。90%のクエリが100MB以下のデータしか処理していませんでした」「巨大なデータサイズを持つ顧客は、ほとんど膨大な量のデータをクエリすることはありません」 また、彼が業界アナリスト(Gartner、Forresterなど)と話したとき、彼がBigQueryを通じて持っていた洞察は強化されたようだ。大半の企業は1テラバイト以下のデータウェアハウスしか持っていない、とアナリストは言ったようだ。データウェアハウスのデータサイズは100GBが適正というのが「一般的な意見」だったようだ。 彼は投資家のリサーチも参照した。「投資家のポートフォリオに含まれる最大のB2B企業は約1テラバイトのデータを持ち、最大のB2C企業は約10テラバイトのデータを持っていることがわかった。しかし、大半はもっと少ないデータ量だった」。 ここから分かることは、ほとんどの事業会社は大量のデータを必要とせず、明確で信頼できるデータを収集して手元で分析できれば十分である、ということだ。本当にデータの使用を改善したいのであれば、データの入り口での品質を改善する方が効果的なようだ。 他方、現在ブームのさなかにある機械学習(ML)は大量のデータを扱わなければメインストリームのゲームをプレイできない。ほとんどのプレイヤーにとってはビッグデータは無縁なものの、競争の先端にいるプレイヤーにとっては依然としてビッグデータは必要不可欠なピースである。 ビッグデータブーム時代に様々な企業の中でデータ組織が作られた。コンサルティング・ファームのような外注先でも同様だ。だが、事業会社が実際にはビッグデータを扱っていないことを踏まえ、さらにMLのブームにさらされていることを考えると、「一時代の終焉」の臭いがする。そんなブログだった。 https://www.axion.zone/3520860785/ うちの会社では分析は組織に丸投げで全く活用できてない みんなわりと想像でシコってました を長々と引き伸ばした文 製造業だけど、テーブル圧縮しまくってようやく8TBくらいやぞうちのDB 画像DB入れたら13TBくらい あのさ。 新聞1ページは1MBという仮説を信じているんだが。 Yahoo!知恵袋で活字の文字数を一文字2バイトで算出して紙面1ページは何百kBと言ってるやつにケンカ売ったらブロックされたんだよね。 σ(゚∀゚ )オレ そんなに間違ってるかね? 主題はどうでも良いけどソースのAxionってサイト面白いな 早稲田政経卒の元ジャーナリストが立ち上げた独立メディアか 死んだというか持ってない人が多いのでコレからだぞ😡 裸足のアフリカ人に靴を売れ まあビッグテックが勝手にモデル公開してくれるからいらんか 死んだというかまともで大量なデータがまだないだろ糞が 昔、法然という男がいてな、山に登ろうとする日蓮に言ったそうだ 「この山に登っても何もないぞ」 しかし日蓮は絶対にこの世の真実があると言って聞かなかったそうな その山が要するにビッグデータという事さ 1000年くらい前から同じ事を繰り返しているんだな人類は しみじみ 結局あれやろ 有象無象の膨大なデータになんの価値もなかったんやろ やからその中から金になる生きたクラスタを抽出して仕分けるシステムがいるんやろ AI絵見てても毎度毎度ワイの予測通りやんけ >>16 もっといい故事ネタはなかったのかという感想 >>16 間違った方向に努力してもなんとななるということか? 人間でもそうだがゴミ情報や有象無象のゴミウヨのたわごとなんか 生きていく上や知恵を得る上でなんの役にも立たんか それを処理する時間のほうがムダだからな ある意味ではコモンセンスというか「常識への回帰」現象みたいなもんだろ 「ビッグデータ、実はビッグなデータなんかいらなかった」 「明確で信頼できるもんしか人間も機械も必要としてない」 というある意味、人文学の基本にまたものごとが 立ち戻ってきた。 >>21 自分で登って見ないとわからないというだけじゃ 扱えればそりゃ有用だけど結局傾向みたいのあるしフィルターのが大事よな となんの知識もない無職が語ってみる ビッグデータ自体はどうでもよくて前処理(都合いい結果だすためのノウハウ)だけ異様に発展して商材化してるからな ビックデータ収集出来るプラットフォーマーは強いけど 日本はその争いには参加すらさせてもらえなかった 今後も情報は収集され ショバ代も搾取され続けるだけの存在だから 気にしても悲しくなるだけ ビッグデータの方が良い結果を得られる可能性もあるけどコスパとタイパを考えるとそこまで手を出せる企業なんて一部だし 最高パフォーマンスを出すことが目的じゃないからね いつだれがどこでクソしたみたいな情報をギガテラペタバイト集めてお金になるのかな ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.1 2024/04/28 Walang Kapalit ★ | Donguri System Team 5ちゃんねる