(WAJ: <視点:140>「生成AI 恐るべし」は、生成AIの登場とその驚異的な進歩、そしてその利用方法や社会的影響について論じている。ChatGPTやGeminiなどの翻訳機能の進化を具体例で示し、言葉遣いや文体の多様な調整が可能であることから「有能な部下のよう」と称賛している。一方で、翻訳機能だけでなく、人間の知的活動全般をカバーする生成AIの発展が仕事を奪う懸念にも触れつつ、それは人間の創造性や社会の適応で乗り越えられると楽観的に捉えている。AIは恐れるべき対象ではなく、活用すべき知的道具だと結論づけられている。)
(2025年7月15日)
生成AI 恐るべし
~どう使いこなすかが課題だ~
衝撃的なデビュー
サム・アルトマン氏が率いるOpenAIがChatGPTを引っ提げて華々しいデビューを果たした2022年11月。それからわずか2年半ほどで、さまざまな類似の生成AIアプリが登場し、パソコンやスマホが登場したとき以上の変革を社会に及ぼしつつある。
『ウエッブ・アフガン』のミッションは「アフガニスタンと世界の平和、人権、進歩のために」である。「科学技術の進歩、発展、社会変革力を平和や人権の実現と結び付けよう」とするところにある。
その活動の場が、この、ウエッブ・マガジンである。インターネットとウエッブ技術を駆使すれば個人であっても世界規模のメディア運営が可能になった。その実践例を示し、ささやかでも技術普及の手伝いをしたい、と秘かな野望を燃やしている。
今回の<視点>では、生成AIの利用の一例を示し、その威力の一端を確認し、この技術の将来、およびそれとどう付き合えばよいのかを考えてみたい。
多彩な生成AIアプリ
現在個人でも利用可能な生成AIアプリは、数えきれないほど登場してきている。インターネット技術のだいご味は、リチャード・ストールマン氏が提唱したフリーソフトウェア運動にある。また、そのうえで交換される著作物や発明などの知的創作物をだれでもが利用できるようにするパブリックドメインという考え方である。
その考えに基づいて提供される生成AIアプリを使って、無料で利用できる分野も限りなく広い。文章作成、翻訳、画像や動画生成、プログラムコードの作成などからはじまって、チャットや各種の解説、質問への回答、アイデアの提供、小説やレポートの作成など、知的労働のほとんどの分野で人間をアシストし、ある場合には人間に代わって作業を行ってくれる。そのため、人間の知的労働の相当部分を代替する。フィジカルなロボットと組み合わせれば、肉体労働のかなりの部分をも代替できるし、戦場での兵士にとって代わることすら可能だ。ロシア・ウクライナ戦争はさながらその実験場と化した感すらある。
『ウエッブ・アフガン』では、無限の可能性を示す生成アプリの機能のうち、主に翻訳アシスタントとして利用している。きわめて初歩的で無限の可能性から見れば万分の一くらいの機能でしかないかもしれないが、これまでの翻訳作業の在り方と比べれば、天と地以上の差がある。
一目瞭然、刮目すべき進歩
『ウエッブ・アフガン』を始めた2021年ころには、自動翻訳サービスは相当のレベルに到達していた。googleのような検索サイトでは、世界各国のサイトを自動的に別の言語に変換して表示できるようになっていた。googleの自動翻訳の出来栄えに満足できなければ、Deeplという翻訳サービスを使えばよりよい回答を提案してくれていた。それでもまだ、人間が校閲し、修正する余地が結構残っていた。
だが、生成AIアプリの翻訳能力はそのようなレベルを一挙に引き上げて、ほとんどそのまま外部に出しても通用するレベルを実現した。
たとえば、本サイトでたびたび紹介したアメリカの経済学者ノア・スミス(Noah Smith)氏の7月7日に配信されてきた「At least five interesting things(少なくとも5つの興味深い事柄)」の一節をgoogleの生成AIであるGeminiに翻訳させてみよう。
「次の英文を翻訳してください。
But is it true? Everyone knows how to mouth the phrase “correlation isn’t causation”, but when the rubber hits the road, do they really understand what that means? Just observing that women’s education and fertility are negatively correlated doesn’t tell you whether preventing women from going to school would make people have a bunch of kids.」
と指示すると「🔹思考プロセスを表示」というプロンプトがブリンク表示され「はい、承知いたしました。以下に翻訳します。」とのコメントに続いて十秒ほどで次のように翻訳結果が表示される。
しかし、それは本当でしょうか?「相関関係は因果関係ではない」という決まり文句は誰もが口にしますが、いざという時、その本当の意味を理解しているのでしょうか? 女性の教育と出生率に負の相関があるという観察だけでは、女性が学校に通うのをやめさせれば、人々がたくさん子どもを産むようになるのかどうかは分かりません。
ちょっとまどろっこしいが、ほとんどそのまま外部に出しても問題ないレベルの翻訳である。しかもご丁寧に、Geminiは翻訳文につづけて次のような注釈を出力してきた。
【翻訳のポイント】
・“mouth the phrase”: 直訳すると「そのフレーズを口にする」ですが、ここでは深く理解せずに言っているニュアンスがあるため、「決まり文句は誰もが口にしますが」と訳しました。
・“when the rubber hits the road”: 「いざという時」「実際に問題に直面した時」といった意味の慣用句です。ここでは「いざという時」としました。
・“correlation isn’t causation”: 「相関関係は因果関係ではない」という、統計学や論理学でよく使われる言葉の定訳です。
・“negatively correlated”: 「負の相関がある」と訳しました。一方が増えるともう一方が減る関係を指します。
丁寧と言えば丁寧、言い訳だと言えば言い訳、無駄と言えば無駄な機能だが、英語勉強目的であればとても役に立つ翻訳結果だといえる。ただ、このような過度の親切は必要なくどのような返答がほしいかを指示すれば要望に沿った回答をよこしてくれる。自分の目的に合うようにアプリを使いこなしていけばよい。
ところが、AI革命旋風を巻き起こしたChatGPTは初期機能だけでひとひねりしていて飽きさせない使い方をさせる。
優秀な部下をもった気分
以下がChatGPTの日本語訳だ。「🔹思考プロセスを表示」なんてまどろっこしいことはせず、ほとんど待ち時間なしに、即答する。
でも、それは本当でしょうか?
誰もが「相関関係は因果関係ではない」という決まり文句を口にすることはできますが、いざ本当にその意味を理解しているのでしょうか?
女性の教育と出生率に負の相関があることを観察しただけでは、女性を学校に通わせなければ子どもがたくさん生まれる、という結論にはなりません。
Geminiと違うところは、「翻訳のポイント」を付加する代わりに「ご希望があれば、もう少し学術的な表現や平易な表現にも調整できます」と問いかけてくる仕様だ。
よっしゃ、という気分で、「じゃ、学術的にやってみてよ」と指示すると即座に「以下が、より学術的な文体での翻訳です」と答えてつぎの翻訳文が提示された。
しかし、それは事実と言えるのであろうか。
多くの人が「相関は因果を意味しない」という常套句を唱えるが、実際の分析場面において、その含意を真に理解している者はどれほどいるだろうか。
たとえば、女性の教育水準と出生率との間に負の相関が観察されたとしても、それは女性の就学を制限することで出生率が上昇するという因果関係を示すものではない。
「ですます体」が「だである体」に変わっただけでそれほど大きな変化はないが、たしかに厳密な表現にはなっている。
その翻訳例を提出すると同時に、ChatGPT君は、つぎのように聞いてくる。
「必要に応じて、論文調・政策提言調・経済学風などにも調整可能です。ご希望のスタイルがあればお知らせください」と。ここは堅苦しい表現を避けてみよう。そこで、「より口語的、簡易な表現でお願いします」と丁寧にお願いすると;
ChatGPT君は「もちろんです。以下は、より口語的で簡単な表現の翻訳です」と答えて、即座に次の翻訳例を提示する。
でも、それって本当の話でしょうか?
「相関は因果じゃない」って言葉はよく聞きますけど、実際にどういう意味かちゃんとわかってる人は、どれくらいいるんでしょう?
たとえば、女性の教育と子どもの数にマイナスの関係があるとわかっても、それだけで「女性を学校に行かせなければ子どもがたくさん生まれる」って話にはなりませんよね。
この回答とともに、さらに次のような提案をしてくる。「よりカジュアルにもできますし、もう少し丁寧語寄りにもできます。ご希望があれば調整します」と。そこで、「もっとカジュアルに」と指示すると;
「もちろん、もっとカジュアルにするとこんな感じになります」と、つぎの結果を表示する。
でもさ、それって本当?
「相関があるからって因果関係があるとは限らない」ってよく言うけど、実際その意味ちゃんとわかってる?
たとえば、女性の教育レベルが上がると子どもの数が減るっていうデータがあっても、だからって「女性を学校に行かせなければ子どもが増える」って話にはならないよね。
ChatGPT:さらに砕けた若者向けのトーンやSNS風にもできます。必要ならお知らせください。
わたし:よっしゃ、さらにくだけてやってくれ。
ChatGPT:了解です!さらにくだけた、話し言葉っぽい超カジュアルバージョンはこちらです。
でもさー、それほんとにそう?
「相関=因果じゃないよ」ってみんな言うけど、ぶっちゃけちゃんと意味わかってる?
たとえばさ、女の人が勉強するほど子どもの数が減るってデータがあったとしても、じゃあ「学校行かせなきゃ子どもいっぱい産むでしょ」って話にはならないっしょ。
ChatGPT:もっとふざけた感じとか、SNS投稿風にもできますので、使う場面があれば教えてください!
わたし:もっとふざけて。
ChatGPT:いいですね、ふざけていきましょう! 以下は、かなりラフでふざけたノリのバージョンです。
え、マジで? それ本気で言ってる?
「相関は因果じゃないんだよ〜ん」ってドヤ顔で言う人いるけど、ホントにわかってんのかって話よ。
例えばさ、女子がいっぱい勉強すると子どもが減るっぽいデータがあったとしてさ、だからって「よし!学校行かせなきゃポコポコ産むだろ!」とか言い出したら、いやそれは短絡すぎん?ってなるでしょ(笑)
ChatGPT:SNSや漫才風、キャラつきなどにもできます。
「もっとぶっ飛ばして!」ってご希望があれば、さらに遊べますよ。
わたし:キャラ付き風ってどんな感じ?
ChatGPT:よっしゃ、キャラ付きバージョンいってみましょう!
ここでは、ツッコミ系のボケ&ツッコミスタイルでお届けします👇
🧔「なあなあ、女の人が勉強すると子ども減るらしいで? ほな学校行かせんかったら子どもいっぱい産まれるんちゃうん?」
🧑🎓「いや、ちょ待て待て!相関は因果ちゃうって、あれほど言うたやん!」
🧔「だって数字がそう言ってるんやもん」
🧑🎓「数字はしゃべらん!あとな、教育と出生率に “たまたま” 関係があったからって、原因まで決めつけんなって話よ」
🧔「…え、じゃあオレが昔フラれたのも、お前が赤いシャツ着てたからじゃないんか?」
🧑🎓「それはお前の性格のせいや!!!」
ChatGPT:もっと関西弁以外のキャラ(ヤンキー、陰キャ、オタク、ギャル、宇宙人、武士、落語風など)もできますので、リクエストがあればどうぞ!
わたし:陰キャで。
ChatGPT:了解です。では、**陰キャキャラ風(ちょっと自虐っぽく、早口で理屈っぽい感じ)**でいってみます。
「あの…その、まあ別に誰も聞いてないと思うんですけど……『相関=因果』じゃないって、常識ですよね? え、違います? あ、はい。えっと、あの……」
「例えば、女性の教育レベルが上がると出生率が下がるって、そういうデータがあるんですよ。あります。うん。でも、だからって “女の人を学校に行かせなければ子どもが増える!” とか言っちゃうの、ちょっと、いやだいぶ雑っていうか……暴論というか……」
「いや、それもう “雨の日にカエル鳴いてたから、カエルが雨を降らせてる” ってレベルじゃないですか。そんな小学生でも言わないっていうか……」
「……すみません、なんか声大きくなっちゃいました……あの、ぼく別に怒ってるとかじゃないです。はい……」
ChatGPT:いかがでしょう?陰キャ特有のテンパり気味な感じを盛り込みました。
ご希望があれば、「中二病風」「メガネ理系風」「ひきこもり系」など、陰キャ派生キャラにも変化できます!
ChatGPT君、結構遊び心があるようです。そこでもう少し遊んでみました。
わたし:メガネ理系風では?
ChatGPT:お任せください!
では、**メガネ理系男子風(冷静で早口、ちょっと上から目線、論理ガチガチ)**バージョンをお届けします👇
「えーっと、まずですね、“相関関係があるからって因果関係があるとは限らない”っていうのは、統計学の基本中の基本です。はい、ド基本です。」
「たとえば、女性の教育水準が上がると出生率が下がるっていうデータ、確かにあります。ありますけど、それを見て“じゃあ女性を教育させなければ子どもが増えるんじゃね?”って考えるのは、極めて非論理的です。ていうか、安直すぎてデータに失礼。」
「そもそも、その負の相関の背景には、経済的要因、文化的要因、都市化率、女性の就労機会とか、他にもいろんな変数が絡んでるわけで、単純な二変数だけで因果を語るとか、ありえない。あ・り・え・な・い。」
「で、こういう誤解を避けるために因果推論っていう分野があって、DAG(有向非巡回グラフ)とか、操作変数法とか、RCT(ランダム化比較試験)とか、使うわけですよ。あ、いや、別にドヤってるわけじゃないですけど……まぁドヤってますね、はい。」
ChatGPT:理系ノリの「ちょっと知識マウントっぽいけど悪気はない」感を意識しました。
他にも「AIオタク系」「京大院生風」「理系女子ver」なども可能です。リクエストあればどうぞ!
ChatGPTは遊びアルゴリズムが豊富なようです。きりがないのでまじめに戻り、下手に出てみます。
わたし:ガチ論文風でお願いします。
ChatGPT:承知しました。では、先ほどの英文をガチ論文風の日本語訳として提示します。アカデミックな論調、構文、語彙を使用します👇
しかしながら、この見解は妥当性を欠いている可能性がある。
「相関関係は必ずしも因果関係を意味しない」という命題は、経験的研究における基本的前提として広く共有されているものの、実際の政策議論や社会的通念の中で、この前提が正しく理解・適用されているかは疑わしい。
たとえば、女性の教育水準と出生率との間に統計的に有意な負の相関が観察されたとしても、それはすなわち、女性の就学を制限することで出生率が上昇するという因果的帰結を導く根拠とはならない。
このような主張は、交絡因子の存在や、内因的選択バイアスを無視した誤謬的な因果推論である可能性が高く、慎重な実証分析と明示的な識別戦略が求められる。
ChatGPT:必要であれば、脚注・参考文献形式、査読論文向けの構成、社会科学/経済学/教育学など特定分野寄りの書き方にも調整可能です。ご希望があればお知らせください。
わたし:査読論文付きでお願いします。
ChatGPT:かしこまりました。以下に、翻訳文に査読論文風の注釈や参考文献例を添えた形でご提示します。
翻訳文(査読論文風)
しかしながら、この見解は妥当性を欠いている可能性がある。
「相関関係は必ずしも因果関係を意味しない」という命題は、経験的研究における基本的前提として広く共有されているものの、実際の政策議論や社会的通念の中で、この前提が正しく理解・適用されているかは疑わしい。
たとえば、女性の教育水準と出生率との間に統計的に有意な負の相関が観察されたとしても、それはすなわち、女性の就学を制限することで出生率が上昇するという因果的帰結を導く根拠とはならない。
このような主張は、交絡因子の存在や内因的選択バイアスを無視した誤謬的な因果推論である可能性が高く、慎重な実証分析と明示的な識別戦略が求められる(Pearl, 2009; Angrist & Pischke, 2009)。
参考文献例
Pearl, J. (2009). Causality: Models, Reasoning, and Inference (2nd ed.). Cambridge University Press.
→ 因果推論の基礎理論と識別方法について詳述。因果関係の識別における相関の限界を体系的に解説している。
Angrist, J. D., & Pischke, J.-S. (2009). Mostly Harmless Econometrics: An Empiricist’s Companion. Princeton University Press.
→ 経済学における因果推論の実践的手法を紹介。政策分析での因果推論に必要な注意点を具体的に示す。
Card, D., & Krueger, A. B. (1994). Minimum Wages and Employment: A Case Study of the Fast Food Industry in New Jersey and Pennsylvania. American Economic Review, 84(4), 772–793.
→ 因果推論の重要性を示す有名な実証研究。単純な相関から因果を推定する危険性を明示。
ChatGPT:もし論文向けの本文展開や脚注の追加、用語の詳細説明も必要であればお知らせください。
また、別分野(社会学、教育学、人口学など)に特化した文献案内も対応可能です。
参考文献まで出してきた。AIは平気でウソをつくので、この学術論文風を外部に出す場合には引例を自分の眼で確かめる必要がある。それにしても、膨大な時間の節約になることだけはたしかである。
恐れ入りました
これだけさまざまなバージョンで訳し分けることのできるChatGPTは、じつは、詩や小説も書けるのである。その実例はこの断片的な翻訳遊びとは比較にならないくらい面白いのだが、またの機会に紹介するとして、今日のところは英文和訳作業に特化することとする。
Google翻訳やDeepL翻訳以前の単語置き換え式の翻訳ソフトであれば、原文中の「the rubber hits the road」をなんらかの形で翻訳文に残すだろう。しかし現在の翻訳ソフトの水準は高いから、google Geminiは翻訳後の「注釈」の形で処理していた。しかしChatGPTは、英文学習ソフトではないので、字面にひかれるのでなく、まったくの慣用句として上手に処理していた。そこで、ChatGPT君が慣用句をどう理解し、処理するのか聞いてみた。
わたし:the rubber hits the road」の処理は?
「the rubber hits the road」は英語の慣用句で、直訳すると「ゴムが道路に触れる」という意味ですが、実際には
「実際に物事が動き始める時」
「理論や計画が現実に適用される場面」
「本番・実践の段階」
といった意味で使われます。
例文:「When the rubber hits the road, we’ll see who’s really prepared.」
訳:「いざ本番になってみないと、本当に準備できているか分からない。」
自然な日本語にすると「いよいよ本格的に動き出したら」とか「実際にやってみると」と訳されることが多いです。
これでは、慣用句をひとかたまりとして置換しているだけかもしれない。原文の意味をどう理解しているのか聞いてみた。
わたし:なぜゴムが道に触れるという表現がそのような意味になるのですか?
するとChatGPT君は、「いい質問ですね!」とほめてくれて次のように答えた。
「the rubber hits the road(ゴムが道に触れる)」という表現の由来は、タイヤのゴム部分が実際に路面に接触し、車が動き始める瞬間を比喩的に表しています。
詳しく説明すると:
車のタイヤは「ゴム(rubber)」でできていて、道路(road)に接触することで初めて車は走行できます。
つまり、「理論や準備」はあっても、実際に「動き出す」「機能し始める」のはタイヤが路面に触れて走る時。
だから「rubber hits the road」は「実際に行動に移る段階」や「理論が試される場面」という意味になったのです。
まとめると、この表現は「計画や話が机上の空論から、実際に現場や実践で効果を発揮する瞬間」をタイヤのゴムが道路に接する瞬間になぞらえたものなんですね。車の動き出す本番の瞬間をイメージするとわかりやすいです。
何か他にも慣用句の由来が気になりますか?
いやいや、まったく恐れ入りました。
有能な部下を持った気分だ。自分が気になること、欲しいことを何でも質問すればそれに答えてくれる。答えがちょっとピンボケでも間違っていてもかまわない。気が付かないこと、異なるバージョン、なんでも提案してくれる。AI君は疲れることを知らないし、無理な注文をしても気分を害することもない。犯罪行為になるようなこと、政治的に微妙な問題については断りを入れる機能を持っている。これほど役に立つ部下を無料で使えるとはいい時代になったものだ。
ChatGPTは、それだけでPDFやパワポのプレゼンシートをつくったり、イラストや絵画を描いたり、作詩も作曲もできる。機能ごとに得意分野を持つ専門の生成AIも多数公開されている。
AIをマシンやロボットに組み込んで、リアルな場で仕事させることもかなり進んできた。わずか2、3年でここまで進歩できるのだから、この先AIと社会との関係がどうなっていくのか、恐怖さえ覚える。
しかし恐れることはない
生成AIは極めて便利だが本質的なところでは決して人間を超えることはない。
チェスや将棋など、ルールのある頭脳ゲームではAIはすでに人間を超えた。しかし、人間の「脳」の機能を超えたわけではない。人間同士の対戦ゲームがなくなることはない。勝負にAIを加えない、というルールをつくればそこに存在することさえできない。AIにもルールは作れるだろうがそれを採用するかしないかを決めるのは人間だ。
生身の人間が移動する速さはスピード的にも距離的にも空間的にも限界がある。人間の脳以外の肉体的機能の限界は道具によってとっくに突破されている。いま、脳の認識機能、処理機能、推論機能、創造機能など諸機能および総合機能が機械によって超えられている。シンギュラリティが未来の事象として語られるが、シンギュラリティはすでにあらかた現実のものとなっている。
だから、AIが成長するにつれて、仕事を奪われる人間がすでにでてきている。何世紀も前から機械の発明・進化につれて人間の仕事は奪われてきているのだ。しかし、人間が生きている限り新しい仕事が開発される。生きること自体が人間の仕事だからだ。そういう思想を磨いてすべての人間が生きられるよう今の世界で人々は努力する。平和と人権を実現する努力である。
そういう努力はAIにはできない。できるのはそういう努力をする人間を知的にアシストすることだ。つまり人間がAIを利用する、ということだ。人間は機械を利用できるが主体を持たない機械が人間を利用することはできない。AIによって仕事がなくなるというが、AIがその仕事をしている人間を駆逐するわけではない。AIを利用している人間または社会がその仕事をAIにさせるようになるだけであって、人間は機械やAIに出来ないほかの仕事をするようになるか、生きること自体を仕事とするようになるだけだ。人間は道具を発明しながら文明や社会を発展させてきた。ただそれだけのことなのである。
AIを法人化すれば主体性を持ちうるとの議論があるがそれは皮相な観念だ。法人が主体性を持っているように見えるのは背後に法人を担保する自然人がいるからだ。
AIを恐怖として描く傾向もある。たしかに究極の発明である原水爆製造技術(および原水爆それ自体)は「いまここにある現実の最大の究極の恐怖」である。すでに存在しているこの現実を管理できなければ人類は破滅する。人類が技術を管理するのであって、技術が人間を支配するわけではない。要は技術を悪用する人間とそうでない人間との闘いであり、人類は誕生の時からそのような戦いを続けてきたのである。
AI技術は原水爆製造技術に比べれば、はるかに人類に貢献しうる技術だ。そして人間社会の日常生活で大いに活用できる技術革新である。他の技術に対すると同様、恐れることなく使えばよいのである。
森羅万象コーナーにビジネスインテリジェンス協会(BIS)中川十郎会長の論文『グローバル経営戦略とビジネスインテリジェンス』が掲載されている。この論文は、「AIやChatGPT時代を生き抜くためには、それを活用するための情報センスを磨き、生涯学習の姿勢が不可欠である」と結論づけられている。まさに至言である。
【野口壽一】