生成AIパスポート模擬試験(教育版・最終版|全60問)

※ページ起動時は全問「解説なし」(各設問のボタンで個別に開閉)。印刷時は開いている解説のみ印刷されます。

Part 1:AI基礎・生成AI概念/LLMの使い方(Q1–Q20)

Q1. 生成AI(Generative AI)の主な特徴として最も適切なものはどれか。

  1. 既存データを分類する。
  2. 新しいデータを生成する。
  3. 不要なデータを削除する。
  4. データを圧縮して保存する。

正解:B

解説: 学習分布に基づき新しいテキスト・画像・音声を合成するのが生成AIの本質。

Q2. ディープラーニングの代表的モデルとして正しいものはどれか。

  1. 線形回帰
  2. 決定木
  3. 畳み込みニューラルネットワーク(CNN)
  4. k近傍法(k-NN)

正解:C

解説: CNNは多層の重み最適化を行う深層学習モデル。

Q3. 「ディープ」ラーニングと呼ばれる所以として適切な説明はどれか。

  1. 単一層を使う。
  2. 2層未満を使う。
  3. 多層NNで表現力を高める。
  4. 出力層のみ学習する。

正解:C

解説: 多層化により非線形表現が高まり複雑分布を近似できる。

Q4. 教師あり学習の説明として最も適切なのはどれか。

  1. ラベルなしから構造発見。
  2. 報酬最大化の方策学習。
  3. 入力と正解ラベルの組から関係を学ぶ。
  4. 可逆圧縮を行う。

正解:C

解説: 入力—ラベル対で関数近似を学ぶ。

Q5. 生成モデルの例として最も適切な組み合わせはどれか。

  1. CNN、決定木、SVM
  2. GAN、VAE、拡散モデル
  3. k-NN、Naive Bayes、Lasso
  4. 線形回帰、RF、XGBoost

正解:B

解説: GAN/VAE/拡散はいずれも新規サンプル生成が可能。

Q6. LLMの学習に一般的に必要なものはどれか。

  1. 少量の教師データのみ
  2. 大規模テキスト・計算資源
  3. 画像と音声の対データのみ
  4. ロボットセンサのみ

正解:B

解説: 大規模コーパスと計算資源で自己教師あり予測学習。

Q7. ハルシネーションの説明として最も適切なものはどれか。

  1. 出力しない現象。
  2. 事実に反するが尤もらしい出力。
  3. 常に同じ出力。
  4. 推論遅延。

正解:B

解説: 虚構出力の生成。

Q8. トークン(token)の説明として適切なものはどれか。

  1. 圧縮率の単位
  2. テキストの最小単位(語片等)
  3. GPU型番
  4. 暗号資産単位

正解:B

解説: サブワード等で分割された単位。

Q9. 温度を上げると一般にどうなるか。

  1. 決定論的になる。
  2. 多様性が増える。
  3. 学習が高速化。
  4. GPU使用量が必ず減る。

正解:B

解説: サンプリング分散が増え多様性向上。

Q10. トークナイザ変更で主に影響するのはどれか。

  1. 法的責任
  2. トークン長・語彙表現・推論効率
  3. OSカーネル
  4. 帯域上限

正解:B

解説: サブワード規則が変わり長さや計算量に影響。

Q11. 転移学習(ファインチューニング)の利点はどれか。

  1. 少量データで特定タスクへ適応。
  2. 必ずモデルが小さくなる。
  3. 既存知識は失われる。
  4. 必ずCPUだけで推論可能。

正解:A

解説: 既存表現を活かし少量データで性能向上。

Q12. 拡散モデルの推論過程の概略として適切なのはどれか。

  1. ノイズから逐次ノイズ除去。
  2. 木構造で分割再配置。
  3. 辞書検索。
  4. CNNのみで直接出力。

正解:A

解説: 逆拡散でノイズを減衰し目的分布へ。

Q13. 良いプロンプト設計の基本原則として最も適切なものはどれか。

  1. 曖昧にする。
  2. 目的・前提・制約・出力形式を明確にする。
  3. 短文のみ。
  4. 形式は指定しない。

正解:B

解説: 具体化するほど再現性と品質が上がる。

Q14. Chain-of-Thought 指示の狙いはどれか。

  1. 出力を短く。
  2. 中間推論を明示し整合性向上。
  3. 計算量削減。
  4. 誤情報を完全防止。

正解:B

解説: ステップ分解で透明性と正答率向上。

Q15. RAGの主目的として適切なのはどれか。

  1. モデル縮小。
  2. 外部知識を検索し最新・固有情報を反映。
  3. ランダム性増大。
  4. GPU不要化。

正解:B

解説: 検索根拠の付与で正確性・最新性補完。

Q16. 事実整合性(factuality)の意味はどれか。

  1. 読みやすさ。
  2. 外部事実との一致度。
  3. 推論の長さ。
  4. 感情の豊かさ。

正解:B

解説: 出力が検証可能な事実と合致しているか。

Q17. 役割(ロール)付与の利点はどれか。

  1. 計算資源削減。
  2. 口調・観点・粒度の制御。
  3. 学習済み重み更新。
  4. セキュリティ強化。

正解:B

解説: 文体と視点を一貫化できる。

Q18. システム/ユーザープロンプトを分ける意義はどれか。

  1. 学習率を変える。
  2. 基本方針と具体要求を分離できる。
  3. GPU節約。
  4. 著作権放棄。

正解:B

解説: 原則(役割・禁止)と個別要求を整理。

Q19. LLMの安全対策として適切なのはどれか。

  1. 長文プロンプトで安全。
  2. 入力検査・出力フィルタ・監査ログの多層化。
  3. 温度を下げる。
  4. モデルを小さくする。

正解:B

解説: ポリシー/検閲/監査の多層設計。

Q20. 人手評価を併用する主な理由はどれか。

  1. 自動指標は常に不信頼。
  2. 論理・一貫性・実用性など自動指標が測りにくい質を補える。
  3. 計算コスト削減。
  4. 法的義務。

正解:B

解説: BLEU/ROUGE等で捉えにくい側面を人が補完。

Part 2:プロンプト設計応用/情報リテラシー・倫理(Q21–Q40)

Q21. Few-shotプロンプトの利点として最も適切なものはどれか。

  1. モデルサイズを小さくできる。
  2. 例示で出力形式の一貫性を高められる。
  3. 推論速度が上がる。
  4. 教師なし学習に変わる。

正解:B

解説: 少数例で望ましい出力パターンを示せる。

Q22. Zero-shotプロンプトとは何を意味するか。

  1. 例示なしで指示のみ。
  2. 出力をランダムに生成。
  3. 1件の例示。
  4. 複数モデル同時実行。

正解:A

解説: タスク説明のみで動作を促す形式。

Q23. 「思考を説明しながら答えてください」の意図はどれか。

  1. 回答を短くする。
  2. 推論過程を明示し整合性を確保する。
  3. 感情表現を促す。
  4. 処理速度を上げる。

正解:B

解説: 思考の可視化で誤答検出と説明責任を高める。

Q24. 出力フォーマット指定で有効な指示はどれか。

  1. 「箇条書きで答えてください」
  2. 「自由に出力してください」
  3. 「好きな形式で」
  4. 「出力しなくてよい」

正解:A

解説: 形式指定で再現性・採点性が向上。

Q25. コンテキスト不足で起きやすい現象はどれか。

  1. 出力が目的に沿わない。
  2. モデルサイズが減る。
  3. GPU消費が減る。
  4. 正確性が上がる。

正解:A

解説: 条件が欠けると適切な判断ができない。

Q26. システムプロンプトの役割はどれか。

  1. 入力保存。
  2. AIの基本姿勢や制約条件の設定。
  3. 自動翻訳。
  4. 再学習。

正解:B

解説: 立場・文体・禁止事項などの初期指示。

Q27. プロンプトインジェクションとは何か。

  1. 不正な指示混入で制御逸脱。
  2. 温度を下げる。
  3. 生成回数を増やす。
  4. プロンプトの自動生成。

正解:A

解説: 入力文に命令を紛れ込ませ逸脱させる攻撃。

Q28. プロンプトが極端に長い場合の問題はどれか。

  1. 情報が切り捨てられる。
  2. モデルが新たに学習する。
  3. 必ず速くなる。
  4. 品質が必ず向上。

正解:A

解説: トークン上限超過で欠落が生じ意味が崩れる。

Q29. 再現性を高めたい設定はどれか。

  1. 温度を下げる。
  2. 温度を上げる。
  3. モデルサイズを増やす。
  4. プロンプト短縮。

正解:A

解説: 確率的揺らぎが減る。

Q30. 制約条件の役割はどれか。

  1. 自由度を上げる。
  2. 範囲を明確化し品質を安定。
  3. 高速化。
  4. 生成回数を減らす。

正解:B

解説: 目的外出力を抑え評価しやすくする。

Q31. 利用規約でまず確認すべき注意点はどれか。

  1. 商用利用の可否
  2. フォントの種類
  3. GPU型番
  4. ネットワーク速度

正解:A

解説: 著作権・契約上の最重要項目。

Q32. AI出力をそのまま公開する際に最も注意すべきことはどれか。

  1. フォントサイズ
  2. 著作権・人格権・個人情報
  3. 拡張子
  4. ブラウザ

正解:B

解説: 権利侵害や個人データ流出のリスク。

Q33. ディープフェイクの最大の社会的懸念はどれか。

  1. 圧縮率低下
  2. 誤情報・偽証拠の拡散
  3. 再生速度低下
  4. ファイル増大

正解:B

解説: 信頼失墜・詐欺・名誉毀損の危険。

Q34. 誤情報リスク低減の適切な方法はどれか。

  1. 複数ソースで検証
  2. 常に盲信
  3. 感情で判断
  4. 即時削除

正解:A

解説: ファクトチェックが有効。

Q35. AI自動生成画像の著作権帰属に関する一般的見解として近いものはどれか。

  1. AIに著作権がある。
  2. 人の創作的関与がある場合に限り認められる。
  3. 常に開発者に帰属。
  4. 一切発生しない。

正解:B

解説: 現行法は「人間の創作性」を要件とする。

Q36. 他人の作品を学習させる際に考慮すべき法律上の視点はどれか。

  1. 著作権法30条の4(情報解析)
  2. 労働基準法
  3. 道路交通法
  4. 会社法定款

正解:A

解説: 一定条件で解析利用を認める規定がある。

Q37. 教育現場でまず考慮すべき倫理的配慮はどれか。

  1. 能力格差への影響
  2. 学習速度
  3. 電力消費
  4. 端末OS

正解:A

解説: 学びへの影響は教育倫理の中心。

Q38. AI生成文をレポートにそのまま提出する場合の最大の問題はどれか。

  1. 文字数不足
  2. 学習過程の個人情報流出
  3. 学術的不正(剽窃・自己評価不能)
  4. フォント差異

正解:C

解説: 自己の成果と偽ることは不正に該当し得る。

Q39. AI出力をSNSで共有する前にまず確認すべきことはどれか。

  1. アルゴリズム構造
  2. 他人の権利侵害の有無
  3. サーバー所在地
  4. 投稿時間帯

正解:B

解説: 肖像権・著作権・名誉毀損リスクの有無。

Q40. 説明責任(アカウンタビリティ)とは何か。

  1. 出力を秘密にする権利
  2. 判断根拠や仕組みを人が理解・説明できる状態
  3. 完全自律化
  4. 高速化

正解:B

解説: 透明性と人間の責任を確保する。

Part 3:法制度・セキュリティ/社会・ビジネス(Q41–Q60)

Q41. 個人情報を含むデータを入力する前にまず行うべきことはどれか。

  1. 温度を上げる。
  2. 社内方針と同意・マスキング要否の確認。
  3. GPU台数増。
  4. 英語固定。

正解:B

解説: 最小化・マスキング・同意管理など規程と法令順守が前提。

Q42. 機密入力を技術的に抑止する基本はどれか。

  1. 善意に任せる。
  2. DLPや禁止ワード検出などの入力前フィルタ。
  3. 温度0。
  4. 深夜のみ利用。

正解:B

解説: 個人番号・クレカ等を遮断する仕組みが基本。

Q43. 最小権限(Least Privilege)の意味はどれか。

  1. 全員に管理権限。
  2. 必要最小の機能・データだけ許可。
  3. 権限ゼロ。
  4. 管理者のみ許可。

正解:B

解説: 誤用・漏えいリスク低減の基本原則。

Q44. 信頼性担保のための根拠提示の具体策はどれか。

  1. 太字化。
  2. 参照元URLや引用箇所の明示。
  3. 絵文字追加。
  4. 文字数増。

正解:B

解説: 検証可能性を高めるため出典を開示。

Q45. 監査ログとして最も重要なのはどれか。

  1. 好きな色。
  2. プロンプト・出力・時刻・利用者。
  3. 壁紙画像。
  4. マスコット名。

正解:B

解説: 追跡可能性・説明責任のため入出力と文脈を記録。

Q46. バイアス疑い時の初動として適切なのはどれか。

  1. 隠す。
  2. 影響範囲特定と一時停止、原因分析・是正計画。
  3. 運用継続。
  4. 自己責任で修正。

正解:B

解説: 被害抑止と透明性確保のため停止・調査・是正が必要。

Q47. 学習データのライセンス確認で重要なのはどれか。

  1. 無料なら自由。
  2. 再配布・営利・改変可否など条件確認。
  3. ファイルサイズ。
  4. ダウンロード速度。

正解:B

解説: 商用可否・クレジット・派生物条件等が要件。

Q48. APIキーの安全な扱いはどれか。

  1. フロントにベタ書き。
  2. サーバー側シークレット管理+ローテーション。
  3. READMEで共有。
  4. SNS公開。

正解:B

解説: サーバー保護と定期更新が基本。

Q49. 透かしやコンテンツ認証の主目的はどれか。

  1. サイズ増。
  2. 生成物識別・来歴検証。
  3. 高速化。
  4. 画質向上。

正解:B

解説: 偽情報対策・透明性確保に資する。

Q50. 最初に定めるべき社内文書はどれか。

  1. 休日一覧。
  2. 生成AI利用ポリシー(目的・禁止・データ取扱い・責任)。
  3. 観葉植物の種類。
  4. 好きな飲み物。

正解:B

解説: 統制の根拠となるポリシー整備が前提。

Q51. PIA/DPIAを行う主な理由はどれか。

  1. 精度向上。
  2. 個人の権利・自由へのリスクを事前に特定・低減。
  3. 通信速度測定。
  4. 電源コスト計算。

正解:B

解説: 個人データ処理のリスクを予防的に管理。

Q52. データ最小化の具体例として適切なのはどれか。

  1. 関係ない個人情報も入力。
  2. 必要項目のみ・仮名化。
  3. 履歴を永久保存。
  4. 全員に共有。

正解:B

解説: 不要データを扱わず識別性を下げる。

Q53. 対外公開記事の品質保証で効果的な手順はどれか。

  1. 即時公開。
  2. 専門家レビューと事実確認を経て公開。
  3. タイトルだけ人間。
  4. 絵文字増。

正解:B

解説: ヒューマン・イン・ザ・ループで査読・ファクトチェック。

Q54. 安全なサンドボックス要件はどれか。

  1. 本番と同じ認可。
  2. 限定データ・限定権限・監査ログ・外部接続制御。
  3. ログ保存なし。
  4. 共有リンク常時開放。

正解:B

解説: 影響範囲を限定し追跡性を確保。

Q55. 個人情報の過剰取得を避ける顧客チャット実装はどれか。

  1. 自由入力のみ。
  2. 必要時のみ最小の本人確認フローへ遷移。
  3. 全項目必須。
  4. 無期限保存。

正解:B

解説: データ最小化と目的限定の原則に沿う。

Q56. 著作権クレジット表記に関する妥当な配慮はどれか。

  1. 出典や素材のライセンス条件に従う。
  2. 常に不要。
  3. 作者名はすべてAIにする。
  4. 競合ロゴを入れる。

正解:A

解説: 条件に基づき必要な帰属を行う。

Q57. 導入効果を測るKPIとして適切なのはどれか。

  1. 好きな昼食の数。
  2. 時間短縮率・品質指標改善・エラー率低下等。
  3. イラストの可愛さ。
  4. 社内バズ数。

正解:B

解説: 時間・品質・コストなど業務成果に直結。

Q58. 依存による技能劣化への教育的対策はどれか。

  1. 全面禁止。
  2. 基礎の手作業演習とAI支援の併用。
  3. すべてAI任せ。
  4. 評価をAIに任せる。

正解:B

解説: 人の理解とAIの生産性を両立させる。

Q59. 外部委託契約で明記すべき重要事項はどれか。

  1. 作業者のニックネーム。
  2. 権利帰属・責任範囲・データ取扱い・守秘義務・再委託条件。
  3. 絵文字数。
  4. BGMジャンル。

正解:B

解説: 法的責任と情報管理を明確化しトラブル防止。

Q60. 行政が生成AIで作成した文書を公開する際に望ましい対応はどれか。

  1. AI使用の有無や範囲、検証手順を明示。
  2. 使用を隠す。
  3. 根拠資料を非公開。
  4. 出力をそのまま公開。

正解:A

解説: 公共性が高い情報は透明性・検証可能性の確保が信頼に直結。