アレクサは、アマゾンが開発した音声認識AIアシスタントで、スマートスピーカーなどに搭載され、声で音楽再生や天気確認、家電操作、質問への回答などができる。このアレクサの会話は一部クラウドに送られ、音声認識や改善のために使われている。通常は自動システムで処理されるが、問題発見時には限定的にアマゾンの従業員が聞くこともある。各言語で数千人が働き、1日9時間、1人当たり最大1000本の録音データを解析している。そしてプライベートな会話や個人情報が偶然入ることがある。その内容は多岐にわたり、音声解析の中でシャワー時の歌声や助けを求める子供の悲鳴、犯罪の恐れがある音声、性的暴行と思われる音声、性行為中の声、機密性の高い話も報告されている。アレクサは「アレクサ!」という呼びかけで録音が始まるが、誤検知や誤作動で意図せず録音が始まることもあるのが理由。これについて2019年頃、アマゾンの従業員がユーザーの音声を聞いていることがメディアで報じられ、プライバシー問題として注目された。
今後ますますAIが利用されていけば、スマホやPC以外にテレビ、冷蔵庫、照明、ロボットなど様々な家電やハード機器に組み込まれていく。つまりあらゆる会話がAIを通して、提供企業へ送信されることになる。その中には誤作動による録音も含まれる。
またSNSでの発信やコメント、ネットショップでの購買履歴から、AIはそれらのあらゆる個人履歴を収集して分析し、個人がどういう性格・価値観・リスク傾向・思想にあるかを高い精度で推定できるようになっている。
データ種別 | 具体例 | 分析できる内容 |
SNS発言 | X(旧Twitter)、Facebook、YouTubeコメントなど | 政治思想、攻撃性、信仰、感情傾向 |
音声・通話履歴 | Alexa、Siri、音声アシスタント | 話し方・語彙・感情・トーンの分析 |
検索履歴 | Google、Bingなど | 興味関心、悩み、病気や政治的傾向 |
購買履歴 | Amazon、楽天など | 生活スタイル、経済力、思想傾向 |
位置情報 | スマホのGPS、アプリ経由 | 生活圏、出入りしている施設、活動範囲 |
つまりAIとの会話、ネット上でのやりとりのすべてをAIが情報として集め、個人がどういった人間かの情報を特定の少数企業が保有する状態となる。2025年の段階では次の企業がその対象となる。
国名 | 企業名 | 主な収集データ・特徴 |
アメリカ | Google (Alphabet) | 検索履歴、YouTube視聴履歴、広告データ、位置情報 |
アメリカ | Meta Platforms (Facebook) | SNS投稿・交流データ、広告・購買履歴、VR関連データ |
アメリカ | Amazon | 購買履歴、Alexa音声データ、クラウド利用データ |
アメリカ | Microsoft | Azureクラウド、LinkedInデータ、Bing検索履歴 |
アメリカ | Apple | Siri音声データ、iPhone・アプリ利用データ |
中国 | Tencent | SNS(WeChat)、ゲーム、決済サービス、位置情報データ |
中国 | Alibaba | 電子商取引、クラウドサービス、消費行動データ |
中国 | Baidu | 検索データ、AI音声認識データ、広告データ |
中国 | Huawei | スマホ端末、クラウドサービス利用データ |
これら元締め企業がこの明確に個人を識別できるデータを、広告会社や第三者に販売することは公には行われていないが、政府要請や利用規約の範囲内での提供、もしくは匿名加工されたデータ共有は現実的に行われており、完全にコントロールされているとは言えない。
例えば2007年から運営されている監視プログラムPRISMは、アメリカ国家安全保障局(NSA)が、大手IT企業から情報を収集していたとされるプログラム。これは米政府が裁判所命令(FISA裁判所)を盾に、Google、Facebook、Microsoft、Apple、Yahoo!、Skype、YouTube、AOLなどの企業に対してユーザーデータ(メール、チャット、通話、ファイル、写真など)の提供を要請。これは元CIA・NSA契約職員エドワード・スノーデンにより2013年に暴露されている。企業は「知らなかった」と一部否定したが、NSA内部文書には「直接アクセスしていた」とされる。アメリカ国内だけでなく、国外の人々(日本含む)も対象だった。
またこれらの企業はAPIを提供しており、他企業の多くの派生サービスやサードパーティアプリがそのAPIを使って機能を拡張している。例えばOpenAIのChatGPT APIがその一つで、チャットボットを自社サイトに組み込みたい企業や、文章自動生成アプリがこのAPIを利用してAIの機能を簡単に活用できる。その結果、こういった派生サービス経由でもユーザーのデータや利用情報が元の企業に送信・蓄積されることが多く、情報収集の範囲がさらに広がっている。これがデータの一元管理や横断的な分析を可能にしている一方で、プライバシー面での懸念も増している。
そしてAPIを利用する企業も個人情報を収集し、それを他企業に販売するということも行われている。
取引例の種類 | 内容概要 | 利用目的・対象 | 問題点・懸念 |
SNSデータの採用スクリーニング | 応募者のSNS投稿やオンライン行動を調査 | 採用判断、性格・リスク分析 | プライバシー侵害、差別の可能性 |
データブローカーによる販売 | 購買履歴やオンライン行動データの収集・販売 | マーケティング、人材分析 | 利用者の同意不十分、透明性欠如 |
AIによる候補者スクリーニング | SNSやネット情報をAIで分析し適性診断を行う | 適職判定、人材紹介 | 大量データ収集、プライバシー問題 |
もうすでに企業の採用担当者が応募者の名前をネットで検索して、SNS投稿やオンライン行動をチェックし、就職の判断を行ってもいる。
こういったことは監視資本主義と言われている。AI研究者でGoogleの研究部門 Open Research Groupの元責任者で、現在はSignal社の社長であるメレディス・ウィテカー氏は、世界中で数十億人のユーザーを抱えるGAFAM(Google、Apple、Facebook、Amazon、Microsoft)が検索履歴や行動データからユーザー像を構築し、それを広告会社に渡し、AIによって「監視広告社会」が形成されていると述べている。Chat GPTで知られているOpenAIは元々非営利だったが現在は営利化され、Microsoft等と密接になっている。
頭文字 | 企業名 | 主な事業内容 |
G | Google | 検索エンジン、YouTube、Android、広告事業(Alphabet社) |
A | Apple | iPhone、Mac、iOS、App Store、デバイス+サービス |
F | Facebook | SNS(Facebook、Instagram、WhatsApp)、広告事業(現Meta) |
A | Amazon | ECサイト、AWS(クラウド)、スマートスピーカーなど |
M | Microsoft | Windows、Office、Azure(クラウド)、LinkedInなど |
広告会社との関係は次のようになっている。
項目 | 実態 |
AI企業が売る情報の内容 | 検索履歴、購買傾向、位置情報、興味関心、デバイス情報など |
売る相手 | 主に広告ネットワーク(Google Ads、Meta Adsなど)、一部データブローカーも |
どのように使われるか | 個人に最適化された広告表示(パーソナライズド広告)や類似ユーザーのターゲティング |
個人名は? | 多くの場合は「匿名化されたID」で扱われる(例:広告ID、Cookie ID、デバイスIDなど) |
匿名の意味 | 表向きは「名前がついていない」が、行動データが詳細すぎて実質的に特定できる場合もある |
ユーザーは日常的にクレジットカード情報や住所をGoogleやAmazonに信頼して提供しており、多くの人はそのサービスの利便性を優先し、ある程度の安心感も持っている。それは元締め企業側にも都合がよく、よってAI社会でもユーザーの安心感は壊さないよう配慮される。そしてユーザーも便利さや効率を求めるあまり、「多少プライベートな会話が関係のないスタッフに聞かれても大きな問題ではない」と感じる人は多くなる。
ただメレディス・ウィテカー氏は次のように述べている。「巨大IT企業はこういったテクノロジーを民主的に、もしくは公共の利益のために使うつもりはない。なぜなら企業は取締役会への責任を果たさなければならない。その結果しだいで解雇されるかボーナスがもらえるかが決まる。目標はシンプルで莫大な利益をあげ、永遠に企業を成長させること。」
つまりプライバシーへの配慮よりも、監視的・収集的な仕組みが優先されやすく、企業の根本的な動機はユーザー保護ではなく株主利益。監視社会が進んだ場合、次のようなことが起こる懸念がある。
懸念内容 | 詳細と影響例 |
思想・行動の自由が萎縮する | 「自分の発言・行動が監視されている」と知ると、人は本音を言わなくなり、権力に逆らいにくくなる。→ 自主規制・沈黙・忖度が広がる。 |
信用スコア社会への移行 | 中国の「社会信用スコア」のように、発言・買い物・友人関係などで「信用点数」が評価され、ローン・旅行・就職の可否が決まる可能性。 |
差別・偏見の自動化 | AIが分析した個人情報(性格・思想・過去の行動)を根拠に、就職・保険加入・住宅契約などが不利になるケースが発生。 |
逆らえない力の集中 | データを集める側(=巨大企業や国家)が、個人のあらゆる情報を掌握し、都合よく操作・制限できる状態になる。 |
過去の発言の“永久記録”化 | 若い頃の失言や過去の検索履歴がずっと残り、将来の評判や信用に悪影響を与える(デジタルタトゥー)。 |
冤罪や誤判断の増加 | AIやデータに基づく「予測」によって、まだ何もしていない人が「危険」とみなされ、監視対象になったり、不当な扱いを受ける。 |
政府や企業への依存増加 | 生活全体がAIや大企業のサービスとつながるため、彼らに拒否されると生活インフラ自体にアクセスできなくなる可能性(例:Googleアカウント凍結で仕事不能)。 |
民主主義国家ではわかりやすくAIによる信用スコア社会にはならなかったとしても、ユーザーに気づかれない形でラベリングされ、非公開の信用スコア社会になる可能性はある。それはすでにバイト求人サイトなどのブラックリスト機能として行われている。応募者が面接を無断キャンセルすると求人企業はその応募者をブラックリスト化できる。すると求人サイトはその対象者が次に応募してきても除外できたりする。当然応募者はその後どれだけ応募しても、面接まで辿り着けないということになる。これが非公開の信用スコア社会の一形態といえる。
こういったことがAI企業の独占状態によりさらに大きな規模で進む要因としては、次のようなものがある。
要因名 | 内容説明 |
データの集中 | Google、Meta、OpenAIなどの巨大プラットフォームが膨大なユーザーデータを保有し、AI訓練に活用できる強み。 |
計算資源の独占 | 高性能GPUや専用チップ、巨大クラウドインフラを持つ企業が限られており、それが競争障壁となっている。 |
スケールメリット | 一度巨大AIモデルを開発すればAPIを通じて幅広く展開・収益化でき、継続的な利益を得られる構造。 |
ネットワーク効果 | 多数のユーザーが使うことでサービスが改善され、フィードバックループが強化され、独占状態がさらに強まる。 |
規制の遅れ | 技術の急速な進化に対して、民主的監視や制度設計が追いついておらず、独占を抑制しきれていない。 |
そしてある企業が技術や市場を独占してしまうと、以下のようなことが現実に起こる。
状況 | 内容 | 例 |
利用者の声が軽視される | 改善要望や不満が反映されにくくなる | 昔のChatGPTの制限:検索不可、更新遅い、融通が利かない |
価格や条件が一方的に決められる | 高額なプラン、APIの料金改定など | OpenAI APIの度重なる価格改定 |
透明性が低下 | どのデータを使って学習したかなどが不明瞭に | GPT-4の中身や訓練データは非公開 |
依存が高まり社会全体が影響を受ける | 公共や教育もその企業の方針に影響される | 学校が商用AIに依存→倫理や教育方針が歪む可能性 |
倫理の問題 | 利益優先でユーザーのプライバシーや公共性が後回しに | 監視型広告モデルの放置、偏った回答制御 |
EU(欧州連合)ではEU AI Act(欧州人工知能法)としてAIに関する強力な規制が2024年8月1日に施行された。これは世界で初めての包括的なAI規制法。
EU AI Actの主な特徴
カテゴリー | 内容 |
リスクベースの分類 | AIシステムを「許容できないリスク」「高リスク」「制限付きリスク」「最小リスク」の4段階に分類し、それぞれに応じた規制を適用 |
禁止されるAIシステム | 行動操作、社会的スコアリング、公共空間でのリアルタイム顔認識など、基本的人権を侵害する恐れのあるAIは全面的に禁止 |
高リスクAIシステム | 医療、教育、採用、法執行などに使用されるAIは、データ品質、透明性、人間の監視、リスク評価など厳格な要件を満たす必要がある |
汎用AIモデル(GPAI) | ChatGPTのような一般的なAIモデルには、透明性、著作権遵守、トレーニングデータの開示などの義務が課される |
適用範囲 | EU域内でサービスを提供するすべての企業(EU外企業も含む)に適用される |
罰則 | 最大3,500万ユーロまたは世界売上高の7%のいずれか高い方(違反内容により異なる) |
施行スケジュール | 2024年8月1日に施行され、2026年8月2日に全面適用開始。特定の規定は2025年2月から順次適用される |
こういったことを踏まえ、プラウトヴィレッジのAIは次を目指すことになる。
項目 | プラウトヴィレッジの非中央集権AI | 現在の営利企業AIシステム |
管理・運営主体 | 地域自治体やコミュニティがサーバーと運営を管理 | 巨大テック企業(Google、Meta、OpenAIなど)が一元管理 |
システム構造 | 非中央集権的・分散型 | 中央集権型・クラウド集中型 |
ソースコード公開 | 完全オープンソースで誰でも検証・改善可能 | 多くが非公開、ブラックボックス化されている |
データ管理 | 地域内で分散管理しプライバシー保護強化 | 大量のユーザーデータを集中収集し活用・商用利用 |
プライバシー・透明性 | 高透明性、ユーザーが自分のデータの扱いを把握可能 | 透明性が低く、利用者がデータの取り扱いを完全には把握できない |
利益追求の動機 | 地域の持続可能性と公共利益優先 | 収益最大化、株主利益優先 |
システムの適応性・柔軟性 | 地域ニーズに合わせたカスタマイズが可能 | 汎用性重視で、地域特性への対応は限定的 |
利用者の参加・自治 | 利用者や地域住民が運営に参加・影響力を持つ | 利用者は消費者としての立場が主で運営への参加は少ない |
プラウトヴィレッジでの「信頼できるAIとは何か?」という問いに対しては、「非営利」×「オープンソース」×「透明性」となる。
要素 | 理由 |
オープンソース | コード・仕組み・データ利用の透明性があり、誰でも中身を検証できる |
非営利 | 利益最優先ではないため、広告・国家・大企業に“都合のいいバイアス”がかかりにくい |
透明性 | 意思決定・開発プロセスが公開され、外部の監視が効きやすい |
これらの条件を満たすAIは次のものが案になる。
ツール名 | 主な特徴 | オープンソース | 非営利・公共性 | 透明性 |
GPT-J / GPT-Neo | 自然な文章生成が得意 | あり | 高い(EleutherAIは非営利系) | 高い(学習過程公開) |
BLOOM | 多言語対応・公共研究プロジェクトから生まれたモデル | あり | 高い(BigScienceプロジェクト) | 高い(学習データ・手順公開) |
Rasa | 会話型AIを自由に構築できるプラットフォーム | あり | 高い(MITライセンス) | 高い(全コード公開) |
Hugging Face Transformers | 多様なAIモデルを柔軟に使える土台ライブラリ | あり | 中程度(企業は営利だが文化は公共寄り) | 高い(運営プロセス・貢献も公開) |
DeepPavlov | 教育やFAQ型AIに特化した会話AIライブラリ | あり | 中~高(ロシアの研究機関が開発) | 中~高(部分的に学習データ非公開あり) |
プラウトヴィレッジで自前AIを構築・運用する際の主な課題は以下の通り。
課題項目 | 内容説明 |
技術的ハードル | AIモデルの開発・運用には高度な技術力が必要。プログラミングやデータサイエンス、インフラ管理の専門知識が必須。 |
計算資源の確保 | 大規模なAIを動かすためには高性能GPUや大量の計算リソースが必要で、コストも大きい。 |
データ収集と品質管理 | 学習用データを自治体やコミュニティで集める必要があるが、データの偏りや質の管理が難しい。 |
オープンソースとの調整 | オープンソースのモデルやツールは多いが、自前AIに最適化・カスタマイズするのに技術的な調整が必要。 |
透明性・説明責任 | AIの判断基準を明確にし、コミュニティが理解・納得できる形で運用する必要がある。 |
維持・更新の継続性 | 技術進化が早いため、AIの継続的な改善やセキュリティ対応が求められる。 |
コスト管理 | 導入・運用にかかる初期費用や継続的な運用コストを自治体や組織が負担できるか。 |
倫理・プライバシー配慮 | 個人データの取り扱いや監視・管理の透明性を確保し、利用者のプライバシー権を尊重する必要がある。 |
非中央集権との両立 | 自律的かつ分散管理の体制を作るのは技術的・運用的に難易度が高い。 |
プラウトヴィレッジの理念を実現するなら、最終的には「自前で自律運用できるAI」が不可欠だが、現実的な運用を考えると始めは商用AIも活用し、段階的移行が現実的な流れになる。
AIを利用する上で電力消費量についても考える必要がある。大規模AIは、何兆、何千億のパラメータを持ち、巨大なデータセットを何回も読み込みながら学習するので膨大な計算量が必要で、それによる電力消費量も大きくなっており、比例して二酸化炭素の排出量も増えている。
Chat GPTとClaudeの2つのAIが行った計算では、もし100億人が日常的にAI使用すると、世界全体の電力の約3〜6%がAIデータセンターからになり、化石燃料主体の全二酸化炭素排出量の約1.5〜3%をAIが占めることになる。これは約150〜300基の原発に相当する。2025年の世界の稼働中の原子炉数は約440基。
世界80億〜100億人がAIを使用し始めた場合、プラウトヴィレッジのように自然エネルギーだけで成り立たせる社会では電力量が足りなくなる可能性もあるので、利用分野の制限を考える必要がでてくる。これは見方によっては科学技術の進歩を世界的に遅らせて、急激な社会の変化を抑えられるという面や、AI利用の過剰依存を抑えられる面もある。
ただ有益な技術でもあるので、優先して利用する分野を選別する。その場合、プラウトヴィレッジでは下記が優先的にAI利用を考える分野となる。
優先度が高い事項
●医療、健康診断など
●無人電車の運転や運営
●教育、子供の勉強用、先生の変わり
その他の検討事項
●水耕栽培の管理
●世界中の町会の起こりうる問題と問題解決方法をまとめて参考にできる機能
●自治体住民の意見を募集し集約して、長が参考にできる機能。
また自治体間の公式連絡、自治体と住民の連絡、住民同士のコミュニケーション
に使用するメッセンジャーアプリも、AIと同様に非営利・オープンソース・透明性で考えると、次の選択肢が案となる。
アプリ名 | 暗号化 | 分散型 | 匿名性 | 電話番号不要 | 運営形態 | 日本語対応 | 世界的言語対応度 | 備考 |
Session | ◎ | ◎ | ◎ | ◎ | 非営利 | ◯ | 中(主要言語のみ) | 匿名性・分散最強、遅延あり |
SimpleX | ◎ | ◎ | ◎ | ◎ | 非営利 | △ | 低〜中 | 革新的設計、まだ発展途上 |
Briar | ◎ | ◎ | ◎ | ◎ | 非営利 | △ | 低 | 災害対応最強、オフライン対応 |
Matrix (Element) | ◎ | ◎ | ◯ | ◎ | 多様 | ◯ | 高 | 組織利用向き、多言語対応良好 |
Signal | ◎ | △ | △ | ×(改善中) | 非営利 | ◯ | 高 | 実績多数、利便性高いが分散弱め |
0 コメント