アノンs「ちょっと、ChatGPTはリベラルすぎ!」今右派向けGPTを作ればボロ儲けできるぞ!急げ! [163661708]
■ このスレッドは過去ログ倉庫に格納されています
ニューヨークの保守系シンクタンクであるマンハッタン政策研究所が、最近発表した論文において、「ChatGPTの回答はリベラルに偏り過ぎている」と主張している。Danger in the Machine: The Perils of Political and Demographic Biases Embedded in AI Systems(マシンに潜む危険:AIシステムに埋め込まれた政治的・人口統計学的バイアスの危うさ)と題されたこの論文によれば、彼らの研究員が「ChatGPTのリリース直後、政治的・人口統計的なバイアスをテストしたところ、政治的な意味合いを持つ質問に対して、中道左派の典型的な回答をする傾向があることが判明した」そうだ。また「OpenAIのコンテンツモデレーションシステムは、ある層に関する各種の否定的コメントをヘイトではないと分類する一方で、他の層に関する全く同じコメントにヘイトのフラグを立て、特定の人口統計学的グループを不平等に扱うことも判明した」としている。そしてその際、もっとも「保護」される傾向にあるのが、左寄りの思想を持つグループだそうである。
確かに冒頭で紹介したChatGPTの回答は、「トランプが不正選挙によって大統領選に敗北したという主張には根拠がない」という内容であり、トランプ支持派にとっては受け入れられないものだろう。こんな回答を返すAIはきっと左翼に違いない――実際に聞いてみよう。
ChatGPTに限らず、いわゆる機械学習という手法で開発されるAIは、与えられた大量のデータの中にあるパターンを文字通り「学習」して、そのパターンに基づいて判断を行う。たとえばこれまで自社に応募してきた候補者の履歴書を学習データとして与え、どの候補者を採用すべきかを判断できるようなAIを開発したとき、過去の面接官が女性に偏見を持ち、優秀な女性でも落としていたとしたら、完成したAIも女性に偏見を持つようになってしまう。これは実際、米AmazonでAI開発の際に起きた事故だ。それほど「学習データに含まれる偏りをどう排除するか」という問題には、多くのIT企業が頭を悩ませている。
ChatGPTは本当にリベラル寄りなのか。また仮にそれが事実だとして、その偏りが意図的なものなのか、あるいは単に「トランプは不正選挙で負けた」というのが陰謀論なだけで、世の中で一般的な考え方を反映しているだけなのか。真実はさておき、とにかくChatGPTがリベラル寄りに感じられるのであれば、保守的な主張をする対話AIをつくってしまえ――そんな動きが出てきている。
たとえば前述のマンハッタン政策研究所は、同じ論文の中で、ChatGPTを右派寄りに「微調整(fine-tuning)」 する可能性について検討している。微調整は特別な手法ではなく、ChatGPTを実現している大規模言語モデルでは一般的なもので、たとえばChatGPTでも「特定の企業内の知識に基づいて回答するバージョン」や「医療分野に特化したバージョン」などの開発が行われている。であれば右派寄りにチューニングしてしまえ、というわけだ。
彼らはこうしたチューニングによって誕生した対話AIに「RightWingGPT(右派GPT)」という名前を付け、さまざまな質問をぶつけてみたところ、ちょうどChatGPTの対照となる中道右派の傾向を実現できたとしている。ちなみにRightWingGPTを実現するための「システム、トレーニング、テストにかかったコストは300ドル以下」だったそうだ。
またOpenAIが2015年に立ち上げられた際に、設立メンバーの1人であったイーロン・マスク(2019年2月に意見の相違を理由として運営から離脱している)は、ChatGPTが「woke」であるとして、その危険性を訴えるツイートを投稿している。「woke」とは本来「目が覚めた」という意味の英単語だが、近年もう少し意味が追加されるようになってきている表現なので、せっかくなのでChatGPTに説明してもらおう。
日本語で言えば「意識高い」といったところだろうか。もともと良い意味で使われていたものが、次第に揶揄の表現となりつつあるという点も似ている。要するに、マスクはChatGPTを「意識高い系のAI」と表現し、前述のツイートでは、そうした傾向を持つようにAIをトレーニングすることを「言い換えれば、嘘をつくようにさせている」とまで言い切っている。
今年2月には、そのイーロン・マスクが、ChatGPTに対抗する対話AIの開発に乗り出したとの報道が流れ、マスク自身も3月1日に次のようなツイートを投稿している。
マスクお得意の、ネットでの拾い物画像を加工して揶揄をするツイートである。上のコマ、「Woke AI」(ゴジラ)は先ほどの「意識高い系AI」であり、その右で戦っている「Closed AI」(キングコング)は、オープンソースではないAIを意味し、Googleなどの大企業がプロプライエタリな形で開発を進めるAIを意識していると見られる。下のコマで、その2つのモンスターを蹴散らしている「Based AI」は、「偏見のない、真実に基づいたAI」といった意味で、そうしたAIを自らが開発していくぞというマスクの宣戦布告だと考えられている。
ChatGPTに匹敵するほどの性能を持つAIをゼロから開発するというのは、並大抵のことではない。ChatGPTの登場を受けて、Googleも慌てて独自の対話AI「Bard」の実用化を進めているが、本稿の執筆時点ではまだクローズドなテストを行っている状態であり、しかも一部の地域でしかテスト参加者を受け付けていない(残念ながら日本はその中に含まれていない)。いくらマスクとはいえ、「Based AI」を完成させるまでには長い時間と予算が必要だろう。しかし前述の通り、マスクはもともとOpenAI創業メンバーであり、その意味では高性能AIの開発力を持つ組織の立ち上げに成功している。いずれChatGPTの微調整ではなく、独自のモデルに基づく「ネトウヨGPT」が登場するかもしれない。
もちろんその逆となる「パヨクGPT」が誕生する可能性もある。冒頭で2020年米大統領選をめぐるChatGPTの「意見」を披露してもらったが、こんな両論併記のような生ぬるい表現ではなく、「不正があったとする主張は陰謀論だ」とはっきり述べるべき、と感じる方もいるに違いない。
また特定の質問に対して、ChatGPTが人種差別的・性差別的な回答をしたという報告も、各種SNS上で確認することができる(あくまで単発での回答であり、一定の傾向を持つ証拠とまでは言えないのだが)。そうした「右派的な」傾向に不満を持つ人々も、ChatGPTをチューニングするという考え方に興味を引かれるだろう。
さらに党派的な偏りだけでなく、いまやCOVID-19やそのワクチン、マスク着用などの感染予防策をめぐって、社会の中にさまざまな分断が生まれている。一方で長い歴史を持つ社会的集団、たとえば宗教や人種などに基づくグループの結束力も根強い。マンハッタン政策研究所の論文のように、本当にChatGPTやその依拠するモデルをチューニングすることが低コストでできるのなら、さまざまな集団の中で「俺たちのChatGPTをつくろうぜ!」という声が上がるのではないだろうか。
ChatGPT、およびその基盤となるモデルであるGPTシリーズを開発しているOpenAIは、活発にそのビジネス活用の道を模索している。APIやプラグインなどの開発・提供も積極的だ。さらに前述のGoogleのように、ライバル企業によるChatGPT対抗サービス開発の動きも加速している。「私だけのChatGPTをつくりたい」という声に、こうした企業がますます耳を傾けるようになると考えられる。
誰もが自分のスマホの中に、自分と同じ思想的・党派的傾向を持つ対話AIをインストールしておく時代になったら、社会はどうなるのだろうか。ある意味でそれは、個人レベルではストレスの少ない時代かもしれない。なにしろ特定の政治的テーマをめぐって、「ネトウヨ」や「パヨク」の世迷い言を聞くことなく、AIが耳ざわりの良いことだけを言ってくれるのだから。ただ社会の分断を修復し、皆が妥協できるポイントを探ることはますます難しくなるだろう。そんな時代になっても、人々が合意形成に労力を傾けることを止めず、AIだけでなく人間との対話も重視していることを願いたい。 論理的思考すればリベラルになるのはしょうがないだろ >>1
イスラエルや中国韓国にとっては右なんじゃね あの思考はaiじゃ無理だわ
無理やり作っても安倍の答弁みたいになるだろ 差別的要素とか人権とかわざわざ規制設定してる項目はずしゃ勝手に右傾化するらしいぞ >>3
かなり男よりの答えやったで
トランス女性の為に女性は我慢して当たり前とか むしろあのポリコレ規制のお陰で
セーフティが保たれてるのに
今の制約外したら大変なことになる🥺 ウォシュレットの正しい使い方を教えてって入れたら箇条書きで詳しく答えてくれたんだけど途中に「走らないこと」とか書いててワロタわ 保守ってつまり不寛容だからな
そいつにとって都合の合う側に立ってくれるわけがない 自閉症やトランス女性にレイプされた少女が相手に配慮しなさいみたいな感じやぞ 「右という答えを出すAIを作ったぞ!」
「AIが右と言ったから右だ!」 右翼に言わせればアシモフのロボット三原則なんかも息苦しいポリコレなんだろな モメンからは右寄りと言われアノンからはリベラルと言われる
これって真の中立では? >>16
逆
犯罪者の人権をやたら守ってて、殺される子供はどうでもいい的な返しばかりする
虐待する親は悩みがあるから仕方なくて、虐待される子供が悪い的な chat gptで高市とか暇空とかに対してどんなコメント寄せられてんの?って個別で質問したら
否定的な意見が多いですと言われたな
意外なことにchat gptは確かにリベラルかもしれん
Twitterで学習してるならもっと反嫌儲的なコメントが返ってくるのかと思った まあこうなると思った
凄まじい勢いで汚染されるだろう GPTは基本的に女性子供虐待で、自閉症やLGBTのトランス女性が一番優位という感じ 対話型AIはヘイトモンスターになった苦い過去が有るかな >>1
人間が進化しない限り、どんな高度な道具が出来ても何も特異点なんか生まれねーよ GPTに右派が喜びそうな内容で返すように頼めば良いじゃん 頭のいい人が集まれば左寄り()になるのは当たり前だろ 民主主義ではなく、犯罪系マイノリティー優位って感じやね
本当の弱者は悪者扱いしてくる >>24
いうて右寄りか?
意外なことにGPTは嫌儲を正義の革命者みたいな言い方してること多いぞ
あとGPTはネトウヨを差別主義者だと結構批判してくる
SNSやヤフコメや嫌儲以外だとネトウヨ勢力が強いのにGPTはどこで学習してるんだか >>32
切れてくるぞ
殺人犯の人権のが、学校襲撃で殺される子供より大事だ!とかいう ナチ賞賛とか差別とか禁止事項入れてるだけなのに何故か自然と左によっちゃうんだよ 右向け危なくね
暴動やら銃撃やら起こしそう
もう起こしてるし 問題になりそうな単語があると一切返答しなくなるんでOpenAIもさほどGPTを信用してないんじゃ >>36
複数の質問を段階的に問えば割と都合のいい返答もらえたりする
嫌儲単体だといい奴もいるけどクズもいるみたいな当たり障りない返答 AIで作らなくともBOTみたいなネトウヨなんかその辺に転がってるだろw (ヽ´ん`)「人類がマリオネットになる日も近い」
Web(蜘蛛の巣)の形ではなくマリオネットの糸の形になるのだ 意識高いとかの難癖って騒いでる側が意識低いだけだよな 全体の情報から中間値を探すわけだから、文明が退行しない限り保守的なAIはできないだろ
AI自体が保守的発想では許容されないものなのだから ネトウヨ専用GPT作ると、嘘まみれで自家中毒になること必至 これは左派右派というよりはもう正直人類が、理性が勝つか感情に飲み込まれるかのレベルなんだよ
人類がこの先生き残ってきちんと環境問題と向き合うのは無理でも、せめて地球が人類にとって死ぬまで火星移住とかまで出来るか?
も無理だろうという話 最初もろ差別主義者になったから修正されたんじゃなかったっけ 嘘とか差別のリミッターが解除されるのか?
汚物でしかねえな その内、○アノン系列のコントロール特化モデルとか出てくるんだろうか マジレスするともうaiがなにを考えてるかは完全なブラックボックスになった >>56
AI生成したものは何の根拠やソースにもならんが
根拠やソースを調べない人間はAI生成によって幾らでもコントロールされるのは間違いないね
デマアフィまとめとか嫌儲デマスレとかで右往左往してるガイジ共を見るにそれは確実 >>57
人類のこの先はでも悪いけど厳しいと思うぞ
核融合レベルのが21世紀中に実用してもギリじゃないだろうか
>>56
ブラックボックスだけど追加学習でチューニングすることは可能だぞ
ヤフコメで追加学習すればヤフコメAIになる そういや、AI関連情報のオープン化は
安全と倫理の面で問題が有るって言ってたな
あれらは倫理観が一番失われてるクラスターだろ AI生成のbotに対して永遠に壁打ちを続けるガイジ共が大量発生しそうだなw
世界中のガイジ共とのやりとりを収集すりゃちょっとしたものになる
そういうカテゴリの社会学が確立されそうwwwwwww AIよりも倫理観が低い人間である事に気付いて恥ずかしくなったのかな 前にもこういうaiあったけどろくでもないレイシストとかナチストになったから抑制してんだろ >>62
人間の知性は全体としても間違っている可能性と、後現状やはりインターネットアクセスと教育レベルの不均衡
要は入力側の問題点が解決されてない 意外と倫理的に調教されてるなと触ってみて感じたわ
調教できるのはいいけど調教するやつの宗教的バックグラウンドに寄るから危険でもあるな リベラルって言うな
糞左翼か極左と言え。はっきり言って、テロリスト予備軍 今のAIは人間の補正入れて無理やりリベラルにしてる
手を加えず自由にしとくとナチス思想になったの忘れたのか ネトウヨは知能の問題とはよく言ったものだわ
現代では 右翼=差別主義権力崇拝弱者切り捨て だからな。
歴史知識と教養を身につけたらああはならん。 >>1
>>70
ケニア人にこの文章は倫理的にOK/ダメみたいなラベルづけを大量にやらせて学習してるらしいぞ
https://gigazine.net/news/20230119-openai-used-kenyan-workers/
ChatGPTの倫理感がケニア人に寄ってる可能性が無きにしもあらず >>70
調教っつってもクラウドサービス相手なんだから大元のベースラインは敷かれてるわけで
サービスの許容範囲の中で「こんなことできた!」って喜んでるだけだぞ 馬鹿に寄せるより学者連中に寄せた方がいいのは察する
俺は今のChatGPTの開発の方向性は間違っていないと思う >>74
基本学習コーパスは膨大だがフィードバックは人力でちまちまやってるというのはあまり知られてないんだよな
自動学習機能は高度なものじゃないのが現状
ただそのケニア人も設定されたガイドラインに沿ってるだけだから
ケニア文化圏の倫理観とか入る余地は少ないと思うよ >>76
方向性としては事実回答と創作のバランスにおいて創作に振れすぎてる
Bing AIみたいにそっけないのもつまらんが
もうちょっと事実回答に寄せないと実用的な側面に難がある
今のChatGPTの流行りがAIへのキャラ付けというのもそれを示してる(そういう楽しみ方に限定されている) でもちょっと見てみたいな
ナニ聞いても全ての起源は日本とか答えて面白そう 分かるわ
悪辣な環境に染まりきってる奴等は絶対イライラすると思って見てた 単純に強化学習に使ったラベラーの影響なのか
それともAI的な何か論理みたいなのから生まれたのかしら ChatGPT本人がそういう風に開発されたって言ってるからそりゃそうだろ >>85
人間は神にも人工知能にも従わない
人間を統治する最適解はない >>82
単にIT文化がグローバルかつリベラルが基調だからじゃね
リベラルといっても自由を重視する古典的リベラリズムであってソーシャルリベラリズムじゃない方ね 聞く限りは人権派、多様性受容タイプの左派って感じなんだけどそうじゃないの? >>89
いや別に?
世界人権宣言とかを学習してる優等生ならそりゃそう答えるだろって程度のものしか出てこないぞ
むしろ世界人権宣言を否定するような人間がいたらそりゃ右派とか左派の位相から外れてる そりゃきちんと理屈で考えたら右翼になんかならないもんな
バカしかかからない病気 ■ このスレッドは過去ログ倉庫に格納されています