時給2ドルでAIを鍛える人たち——「安いAI」の裏側を、中小企業は知っておくべきだ

あなたが使っているAIは、時給2ドルの労働で作られている ChatGPTに質問する。Claudeに文章を書かせる。AIが数秒で答えを返してくれる。便利だ。安い。月額20ドルで使い放題。 だが、その「安さ」の裏側を、一度は知っておくべきだ

By Kai

|

Related Articles

あなたが使っているAIは、時給2ドルの労働で作られている

ChatGPTに質問する。Claudeに文章を書かせる。AIが数秒で答えを返してくれる。便利だ。安い。月額20ドルで使い放題。

だが、その「安さ」の裏側を、一度は知っておくべきだ。

Scale AIという企業がある。AIモデルのトレーニングデータを作る会社だ。数万人の労働者を雇い、AIが学習するためのデータにラベルを付け、品質を評価し、フィードバックを与える仕事をさせている。

その労働者の時給は、わずか2ドルだ。

日本円にして約300円。日本のコンビニバイトの3分の1以下。この労働力の上に、私たちが日常的に使うAIサービスが成り立っている。

「人力AI」の実態

AIは「自動で学習する」と思われがちだが、実態は違う。

AIモデルの訓練には、大量の「正解データ」が必要だ。「この画像は猫」「この文章は丁寧な言い回し」「この回答は事実に基づいている」——こうした判断を、人間が一つ一つ行う。これを「データアノテーション」や「RLHF(人間のフィードバックによる強化学習)」と呼ぶ。

Scale AIの労働者たちは、この作業を担っている。具体的には以下のような業務だ。

  • AIの回答の品質を5段階で評価する
  • 画像に写っている物体を一つ一つラベル付けする
  • テキストの文法的な正しさや事実の正確さをチェックする
  • 場合によっては、個人のSNS投稿や著作権のあるコンテンツを収集・分類する
  • ポルノ音声のトランスクリプション(文字起こし)を行う

最後の2つは、倫理的に大きな問題をはらんでいる。だが、労働者たちに選択肢はない。

Patrick Ciriello氏のケースが象徴的だ。彼は長年の専門的なキャリアを持ちながら、失業後1年間職を探し続けた末に、Scale AIのアノテーション業務にたどり着いた。時給2ドル。専門知識を持つ人間が、AIの「下請け作業」を最低賃金以下でやっている。

彼のような人は例外ではない。Scale AIには、正規雇用の道が閉ざされた高齢者、発展途上国の労働者、副業として収入を得ようとする人々が数万人規模で集まっている。

なぜ中小企業がこの問題を知るべきなのか

「それはScale AIの問題であって、うちには関係ない」——そう思うかもしれない。だが、3つの理由で、中小企業にも無関係ではない。

理由1:品質リスク

時給2ドルの労働者が、どれだけ真剣にデータの品質を管理できるか。答えは明らかだ。低賃金の労働環境では、作業の精度は下がる。モチベーションも下がる。結果として、AIモデルが学習するデータの品質にムラが出る。

AIの出力は、学習データの品質に直結する。「ゴミを入れればゴミが出る(Garbage In, Garbage Out)」は、AI時代でも変わらない原則だ。中小企業が安価なAIサービスを使うとき、その出力の信頼性は、こうした労働環境に左右されている。

理由2:倫理リスクがブランドリスクになる

ESGやサプライチェーンの透明性が求められる時代だ。大企業はすでに、取引先のAI利用における倫理的な側面を審査し始めている。「御社が使っているAIサービスのトレーニングデータは、どのような労働環境で作られていますか?」——この質問に答えられない企業は、取引から外されるリスクがある。

今はまだ中小企業にこの質問が飛んでくることは少ない。だが、2〜3年後には状況が変わる可能性が高い。

理由3:規制リスク

EUのAI規制法(AI Act)は、AIモデルの訓練データの透明性を求めている。日本でも、AIに関するガイドラインの整備が進んでいる。将来的に、「どのような条件で訓練されたAIを使っているか」を開示する義務が生じる可能性がある。

「安い」と「適正」の境界線

AIサービスの価格競争は激化している。月額数千円で使えるサービスが次々と登場し、中小企業にとっては選択肢が広がっている。それ自体は良いことだ。

だが、「安い」には理由がある。その理由が「技術的な効率化」なのか、「人件費の搾取」なのかは、まったく別の話だ。

技術的な効率化によるコスト削減は歓迎すべきだ。モデルの軽量化、推論の最適化、オープンソースの活用——これらは健全なコスト削減だ。

一方、時給2ドルの労働力に依存したコスト削減は、持続可能ではない。労働者の権利意識が高まれば賃金は上がる。規制が強化されれば、コストは跳ね上がる。今の「安さ」は、将来の「値上げ」の前借りに過ぎない可能性がある。

で、中小企業はどうすればいいのか

1. 使っているAIサービスの「裏側」を最低限調べる。

そのAIモデルは、どの企業が訓練したものか。訓練データの収集方法は公開されているか。労働環境に関するポリシーは明示されているか。完璧に調べる必要はない。だが、「何も知らない」状態は避けるべきだ。

2. 複数のサービスを比較し、「安さの理由」を考える。

同じ機能で価格が大きく異なるサービスがあれば、その差の理由を考える。技術的な効率化なのか、労働コストの圧縮なのか。

3. 自社データで微調整したモデルを検討する。

外部の大規模モデルに依存するのではなく、自社データで小規模モデルを微調整する選択肢もある。この場合、トレーニングデータの品質は自社でコントロールできる。

4. 取引先から聞かれたときに答えられる準備をする。

「御社のAI利用における倫理的な方針は?」——この質問は、遠くない将来に飛んでくる。今から準備しておけば、慌てずに済む。

知った上で、選ぶ

AIの恩恵を否定するつもりはない。時給2ドルの労働が存在するからといって、AIを使うなという話でもない。

だが、知らないまま使うのと、知った上で使うのでは、意味がまったく違う。

AIの「安さ」の裏側には、300円で働く人間がいる。その事実を知った上で、自社にとって適正なAIサービスを選ぶ。それが、これからのAI時代における中小企業の「まっとうな選択」だ。

POPULAR ARTICLES

Related Articles

POPULAR ARTICLES

JP JA US EN