JEITAにおけるAIポリシー

AIは、社会の様々な場面で、その利活用が広がっており、特にビジネスシーンにおいては新たなビジネスモデルの創出や業務効率化を可能にし、企業競争力の強化へと繋がることが期待されています。

今後もAIは、人の暮らしや産業など社会全体におけるイノベーションの源泉として不可欠な存在になると考えます。

JEITAは、ビジネスシーンにおけるAIの積極的な利活用を促進し、IT・エレクトロニクス業界の持続可能な発展に貢献することを目的に、当業界における基本的な考え方として、本ポリシーを制定しました。

この目的の実現にあたっては、JEITAと会員企業が自主的に取り組みを進めること、又はステークホルダーとの共創により取り組みを進めることが重要であると考えているため、本ポリシーはこの2つの観点で原則を整理しています。

今後、AIの発展や国内外における法令・規範の改正などを踏まえて、本ポリシーは継続的に見直し・改定を行っていきます。

本ポリシーの構成

IT・エレクトロニクス業界として取り組むべき原則

  1. 1.人間中心
  2. 2.安全性
  3. 3.公平性
  4. 4.プライバシー保護
  5. 5.セキュリティ確保
  6. 6.透明性
  7. 7.アカウンタビリティ

IT・エレクトロニクス業界が社会と連携しながら取り組むべき原則

  1. 8.社会課題の解決
  2. 9.教育リテラシー
  3. 10.公平競争の推進
  4. 11.イノベーション

本ポリシーにおける用語の定義 ※経済産業省・総務省 『AI事業者ガイドライン 第1.1版』 より引用

A I

人間の思考プロセスと同じような形で動作するコンピュータープログラム、コンピューター上で知的判断 を下せるシステム等を指す。

ただし、一般的に確立された定義は存在しないため、本ポリシーにおけるAIは「AIシステム(以下に定義)」自体または機械学習をするソフトウェア若しくはプログラムを含む抽象的な概念とする。

AIシステム

活用の過程を通じて様々なレベルの自律性をもって動作し学習する機能を有するソフトウェアを要素として含むシステムとする(機械、ロボット、クラウドシステム等)。

AIサービス

AIシステムを用いた役務を指す。AI利用者への価値提供の全般を指しており、AIサービスの提供・運営は、AIシステムの構成技術に限らず、人間によるモニタリング、ステークホルダーとの適切なコミュニケーション等の非技術的アプローチも連携した形で実施される。

制定 2025年 6月 11日

IT・エレクトロニクス業界として取り組むべき原則

1.人間中心

JEITAは、あらゆる人の能力を拡張・補完し、それぞれが望む形での社会貢献や豊かな生活を支援するテクノロジーとしてAIを位置づけます。

人間尊重を基本として、人とAIが共生する社会の実現を目指し、社会と調和したAIの普及を促進します。

2.安全性

JEITAは、AIは豊かな生活と社会の発展のために利活用されるべきものであり、人の安全を脅かし、危害を及ぼすものであってはならないと考えています。

そのため、会員各社には、人の生命・健康・人権・財産などに対するAI利活用のリスクとベネフィットを分析し、適切な対策を講じることを求めます。また、AIシステム・サービスの提供後においても、AIシステム・サービスの利用における安全性の向上や、不自然な挙動の記録・監視に取り組むことを推奨します。

*1: 人の財産に対するリスクの例

JEITAは、AIの安全性を確保するために、AIを適正な用途で使用する、適切なデータで学習させることが必要であると考えます。

そのため、会員各社には、AIが設計された用途や範囲から逸脱した使い方をされないよう、利用者に対し利用方針、利用条件などを示すことを推奨するとともに、AIの学習においては可能な限り適切なデータを用いるよう促します。

JEITAは、AIの発展に伴って偽情報や誤情報の生成が容易となり、これらの情報が社会に流通する可能性が高まっていると考えます。

偽情報や誤情報によって企業や個人の意思決定に重大な影響を及ぼす恐れがあるため、会員各社には、情報の信頼性を確保するための対策に取り組むことを求めます。

*2: 偽情報・誤情報「ハルシネーション」

3.公平性

JEITAは、AIは公平であり、多様性を尊重する必要があると理解しています。

そのため、会員各社には、人種、性別、国籍、年齢、政治的信念、宗教などに関わらずあらゆる人を尊重し、回避しきれない潜在的なバイアスがあることにも留意し、AIシステム・サービスの開発・提供・利用における差別や偏見の最小化に努めるよう求めます。

4.プライバシー保護

JEITAは、AIシステム・サービスの開発・提供・利用において、プライバシー保護は重要な事項であると認識しています。

会員各社には、個人情報保護法など国内外における関連法令の遵守とプライバシーポリシーの策定・公表や、ステークホルダーと合意した機密情報の保護に必要な対応に努めるよう求めます。

また、個人情報に該当するか否かに関わらず、AIが生成した情報による潜在的なプライバシーのリスクを分析し、これを最小化するために適切な措置を講じることを推奨します。

*5: 個人情報保護において、特に考慮することが重要な事項

5.セキュリティ確保

JEITAは、AIシステム・サービスにおける継続的なセキュリティ対策が重要であると考えます。近年の技術進歩に伴い、サイバー攻撃の手法は複雑化してきています。データの改ざんや情報漏洩により被害が広範囲に及ぶ可能性があるため、強固な対策が必要です。

会員各社には、AIシステム・サービスの機密性・完全性・可用性を常時維持し、その時点での技術水準に照らして合理的な対策を講じるとともに、新たな攻撃手法やリスクなどの最新動向も留意するよう求めます。また、AIシステム・サービスの開発・提供・利用における潜在的なリスクを分析し、これを最小化するための適切な措置を講じるよう求めます。

*6: 攻撃手法の例

6.透明性

JEITAは、AIシステム・サービスの透明性確保には、AIの学習や推論過程、判断根拠等を検証できることに加えて、用途や状況に応じ、技術的に可能な範囲かつステークホルダーに対し合理的な範囲で情報を提供することが必要だと考えます。

そのため、会員各社には、製品・サービスの性質、技術的な実現可能性、運用上の負担を考慮した上で、可能な範囲でAIの学習・推論過程や判断根拠などを記録・保存し、そのプロセスを確認できる状態にすることを推奨します。また、合理的かつ必要な範囲で、ステークホルダーに対しAI利用の事実やデータ収集の手法などAIシステム・サービスの設計・運用・影響に関する情報を適切に提供するよう促します。

7.アカウンタビリティ

JEITAは、企業が説明責任を果たすためには、AIガバナンスの体制を構築することが必要だと考えます。

そのため、会員各社には、責任者と責任範囲を明確にすることを促し、問題発生時に迅速に対応できる状態を求めます。

JEITAは、ステークホルダーへの具体的な対応が、説明責任を果たすために重要であると認識しています。

会員各社には、必要に応じ、AIガバナンスに関するポリシーなどの方針を策定・公表するよう推奨します。また、AIの判断結果の誤りなどについて、必要に応じ、ステークホルダーから指摘を受け付ける機会を設けるとともに、ステークホルダーの利益を損なう事態が生じた場合は、対応方針を策定して着実に実施し、進捗状況を定期的に報告するよう促します。

IT・エレクトロニクス業界が
社会と連携しながら取り組むべき原則

8.社会課題の解決

JEITAは、AIの社会実装によって社会課題の解決に貢献することが重要であると考えます。また、AIライフサイクルにおいては環境への配慮も重要です。

JEITAは会員各社と共に、それぞれの事業領域やリソースに応じて、AIを利活用することで社会的価値を創出し、持続可能な社会の実現に貢献します。

*7: 環境や社会へ貢献する取り組み例

9.教育リテラシー

JEITAは、AIの技術進化や利活用の拡大などに伴い人に求められるスキルが変化するため、人は常に学び続け、責任をもってAIを取り扱う必要があると考えます。

そのため、JEITAは会員各社と共に、AIシステム・サービスの開発側、利用側双方の従業員に対し、AIリテラシーの向上や新たな働き方ができるための教育・リスキリングに積極的に取り組みます。また、様々なステークホルダーに対しても、教育プログラムやトレーニング機会の提供を通じて支援し、進化するAIの正しい理解を高めるための取り組みに努めます。

10.公平競争の維持

JEITAは、公正な競争環境を維持することは、AIの持続可能な成長を支える基盤になると考えます。

そのため、JEITAは会員各社と共に、特定の企業や業界に偏らず様々なステークホルダーと共創し、健全な競争環境を維持するよう努めます。また、国際的な標準やルールに基づく協調を通じて、公正な競争環境の維持に努めます。

11.イノベーション

JEITAは、AIの適切な活用とイノベーション推進により、社会全体にAIの恩恵をもたらすと考えます。

そのため、JEITAは会員各社と共に、産官学及び諸外国との対話による官民のデータ活用により、AIの可能性を最大限に引き出し、イノベーションを加速させます。また、イノベーションを阻害しないようAIの適切な運用について様々なステークホルダーと対話をし、政策提言などを行います。

補   足

安全性

*1:人の財産に対するリスクの例

著作権の侵害

他者が創作した著作物を不正に使用し、その権利を侵害する行為です。例えば、特定の漫画・アニメのキャラクターなどのイラストに類似した画像を生成する目的での学習や、学習データに含まれるイラストに類似する画像の生成・利用が考えられます。対策として、必要に応じて学習データの出所やAIが生成したコンテンツの既存著作物との類似性の確認を行うことが重要です。

産業財産権の侵害

他者の特許、商標、意匠などを許可なく使用し、その権利を侵害する行為です。例えば、他者の登録商標を学習して、登録商標と同一又は類似の商標を作成し、その指定商品と同一又は類似した商品・役務について使用することが考えられます。対策として、事前の権利調査や法的な専門家との管理体制を整えることが重要です。

*2:偽情報・誤情報「ハルシネーション」

生成AIが実際には存在しない情報や誤ったデータを生成する現象です。これは、意味や因果関係を理解せず統計的に結果を返す仕組みである生成AIが、不正確なデータを基に推測を行うことによって発生します。これらの誤った情報によって、企業や個人の意思決定に重大な影響を与え、企業の事業活動や個人の財産・権利に直接影響を及ぼす恐れがあります。信頼性のある情報源と照らし合わせ、生成された情報を慎重に検証することが重要です。

なお、偽情報・誤情報に気づかないリスクも存在しており、例えば、利用者自身が信じたい情報を信じる「確証バイアス」、繰り返し接触することで真実と錯覚する「真実錯覚効果」の心理現象による影響など原因は様々です。

公平性

*3:潜在的なバイアスの例

人種に関するバイアス

AIが特定の人種に不公平な結果を示すことです。学習データが特定の人種に偏っている場合や、アルゴリズムが人種的背景を正しく理解できない場合に発生します。

ジェンダー/性的マイノリティに関するバイアス

AIが異性愛を基準とするデータやアルゴリズムにより、LGBTQ+コミュニティに不公平な結果をもたらすことです。学習データにおいて性的多様性が考慮されていない場合や、アルゴリズムに偏見を排除する基準が設けられていない場合に発生します。

経済的背景に関するバイアス

AIが経済的背景によって特定の集団に有利または不利な結果を導くことです。学習データが、経済的な多様性を反映できていない場合や、アルゴリズムが経済的要因を過度に重視している場合に発生します。

地理に関するバイアス

AIが特定の地域に対し不公平な結果を示すことです。学習データが、都市部や農村部など特定の地域に偏っている場合に発生します。

*4:インシデント事例

採用AI

IT企業が履歴書を評価するためのAIを開発したが、後に男性候補者を優先する傾向があることが判明。原因は、AIが学習した過去10年間の履歴書データが主に男性であったためであり、AIが女性を不利に扱うようになっていた。

画像認識AI

IT企業が開発した画像認識AIは画像を自動分析しタグ付けする機能を持っていたが、黒人の人々を動物に例えてタグ付けするという問題が発生。原因は、AIの学習データが人種的に偏っていたためであった。

AIチャットボット

IT企業がユーザーと対話できるAIチャットボットを開発したが、リリース後わずか数時間で人種差別的な発言をする問題が発生。原因は、ユーザーとの対話を通じて学習するよう設計されたことにより、ユーザーからの攻撃的なメッセージを学習したためであった。

プライバシー保護

*5:個人情報保護において、特に考慮することが重要な事項

個人情報を取り扱う側

プライバシーポリシーの策定

顧客情報の収集、処理、保管、利用に関する包括的なプライバシーポリシーを策定し、顧客に理解しやすい形で提供する。また、明示的に収集した顧客情報に限らず、プロンプトで入力された趣味嗜好や政治信条などの機微情報についても、その取扱に十分に注意する。

顧客の同意

顧客情報の収集時に、その目的と利用方法を明示し、顧客から同意を得るプロセスを導入する。

データ最小化と匿名化

必要最低限のデータのみを収集し、必要に応じて、名前や住所などの個人識別情報を削除または置き換えるなど匿名化や仮名化を実施する。

データ暗号化とアクセス制御

データの重要度に応じて、データの保管時は暗号化等の保護手段を適用することを検討し、データを転送する際には通信路の保護手段を適用することを検討する。また、データへのアクセス権限を必要最低限の個人に限定し、定期的な見直しを実施する。

プライバシーインシデント対応体制の構築

プライバシー侵害が発生した場合に迅速に対応できる体制を構築し、インシデント対応手順を明確にする。

個人情報を提供する側

プライバシーポリシーの理解

プライバシーポリシーを理解し、自身のデータがどのように扱われるかを把握する。

提供情報の制御

個人情報の提供は必要最低限にとどめ、必要に応じて、プライバシー設定等から自身の情報を管理する。

なお、上記は特に重要な事項を整理したものであり、詳細は個人情報保護委員会が策定している「個人情報の保護に関する法律についてのガイドライン」などを参照することを推奨します。

セキュリティ確保

*6:攻撃手法の例

データ汚染

AIの予測精度を低下させるために、学習データに不正なデータを混入させる手法です。特にオープンデータや、データの出所を完全に把握できない場合にリスクが高まります。対策として、データの出所を厳密に管理し、信頼できるソースからのデータを優先することや、データをモニタリングし、疑わしサンプルを検出して削除することが考えられます。

回避攻撃(敵対的サンプル)

AIの予測結果を誤らせるために、運用時の入力データに微小なノイズを加える手法です。特に画像認識や音声認識の分野で問題となることが多く、人間には判別できない程度の微小なノイズであることが特徴です。対策として、ノイズを加えたデータによって訓練を実施すること(敵対的学習)や、AIへのアクセス権およびアクセス回数・頻度に制限をかけることが考えられます。

モデル汚染

攻撃者が細工した事前学習モデルを配布し利用させた上で、トリガーと呼ばれる攻撃者しか知り得ない特定のデータを入力することで、攻撃者が意図した出力や、悪意のあるコードを実行させる攻撃手法です。AIが稼働するシステムへの侵入・破壊や情報漏えい等の危険性があります。対策としては、信頼できる事前学習モデルの利用、サンドボックス環境の利用などが挙げられます。

データ窃取

標的AIに複数のデータを入力し、出力結果を観察することで、AIの学習データを推論・復元しようとする攻撃です。学習データに機密情報が含まれていた場合、情報漏えいの危険性があります。対策としては、出力に適切なノイズを付与することによって、統計的な有用性を維持したままプライバシーを確保する手法(差分プライバシー)などがあります。

モデル窃取

標的AIに複数の正常なデータを入力し、これらに対する出力と入力データを紐づけて模倣データセットを作成します。攻撃者は手元の独自AIを模倣データセットで学習し、標的AIと同等の性能を達成できるようにします。攻撃者にAIが模倣された場合、AIモデルを扱う企業はビジネスモデルが崩壊するおそれがあります。対策としては、AIへのアクセス権およびアクセス回数・頻度に制限をかけることが考えられます。

環境や社会へ貢献する取り組み例

*7:環境や社会へ貢献する取り組み例

カーボンフットプリント

カーボンフットプリントは、商品・サービスの原材料調達から廃棄・リサイクルに至るまでの間に排出される温室効果ガスをCO2に換算し、その商品・サービスに表示する仕組みです。企業活動から排出される温室効果ガスを最小限に抑えることを目的としており、企業はこの取り組みを通じて環境保護に貢献できます。

再生可能エネルギーの利用

化石燃料に依存せず、太陽光・風力・水力・地熱などのエネルギー源を利用することで、温室効果ガスの排出を大幅に削減することができます。企業は環境への影響を最小限に抑えつつ、エネルギー供給の安全性を高めることができ、また新たな雇用の創出など地域経済の活性化にも貢献できます。

廃棄物削減とリサイクル

廃棄物削減とリサイクルは、資源の効率的利用を促進し、環境への負荷を軽減する取り組みです。企業は製造プロセスや業務フローの無駄を見直し、資源使用を最小限に抑えることで、コスト削減と効率的な運営を実現できます。また、地域のリサイクル活動への参加を通じて、地域社会の持続可能な発展に寄与できます。

少子高齢化対策

少子高齢化対策において、AIは労働力不足の解消や高齢者支援、子育て支援に大きな役割を果たします。業務の自動化や多様な分野・現場での活用により、限られた人材でも効率的な対応が可能となります。AIの利活用は、少子高齢化対策を推進し、持続可能な社会の実現に貢献します。

ご訪問いただきありがとうございます。
当ウェブサイトのよりよい情報提供・サービス向上のため、ポリシーに基づいたCookieの取得と利用に同意をお願いいたします。

ページトップへ