令和8年3月11日 教育担当理事裁定
1. 趣旨
京都大学は、創設以来築いてきた「自由の学風」のもと、多元的な課題の解決に挑戦し、地球社会の調和ある共存に貢献することを使命としてきた。その教育においては、卓越した知の継承と創造的精神の涵養に努めることを基本理念としている。この基本理念に即して、教育におけるAIの利用に際して、倫理的・法的・社会的な観点から検討し、学修効果におけるリスクを最小化しながらその価値を最大化することを目的として、「京都大学の教育・学修におけるAIイニシアティブ」を策定する。
本イニシアティブは、教職員と学生が生成AIを責任ある形で教育・学修に活用し、様々な課題の解決に貢献できる能力を高める環境を整えることを目的とする。生成AIの出現は、「人間の知性とは何か」を問い直す学問的挑戦の一つである。生成AIが知の深化を促す契機となる可能性を視野に入れつつも、その功罪両面を、構成員間の多角的な議論を通じて深く洞察し、人間とAIが共存する時代に求められる新たな教育像を構築する。
2. 基本理念
◆ 人間の尊厳の尊重:教育・学修における生成AIの利用においては、人間の尊厳を尊重し、知の画一化を避けることを最優先とする。プライバシーの保護、安全性の確保に努める。
◆ 効果的な教育の実現:学生が卓越した知を継承し、論理的・批判的思考力、及び問題発見・解決能力等を身に付けることができる教育・学修を追求する。学修・研究における生成AIの効果的な利用の仕方、ならびに生成AIがもたらしうるリスク(誤情報の出力(ハルシネーション)、バイアス、情報漏洩、知的財産権・肖像権の侵害、学習目標からの逸脱など)を回避する方策についても学習する機会を提供する。
◆ 透明性と説明責任:生成AIの出力結果を無批判に受け入れるのではなく、その根拠と限界を峻別し、生成AI使用のプロセスを透明化する能力を養う教育を実現する。自らの成果物に対する最終的な責任は常に人間が負う。
◆ 公正性と包摂性:ジェンダー、出身地域、専攻分野など、多様な属性・背景を持つ学生が生成AIの恩恵を享受できる基礎的環境を整備する。
◆ 多様性の尊重と対話による合意形成:生成AIを利用することによる知の画一化を避けるため、「AIを使わない自由」も尊重する。また、学生、教職員間での対話を活性化することにより、必要な場面では、より適切な合意を形成することを追求する。
3. 目標
◆ 学内における利用実態の把握に基づき、課題と対応策を明確化する。
◆ 教育・学修における生成AI利用に関するガイドラインを策定し、必要に応じて改訂する。
◆ AIリテラシー教育からAI for Science(研究におけるAI活用)に関する教育まで、体系的な教育内容を整備する。
◆ 教育における生成AI活用に関する教職員への支援を提供する。
◆ 学生の自律的な学修を支援するため、生成AI利用に関するe-learningコンテンツや学習支援AIツールを開発・提供する。
◆ データ保護、公平性、知的財産権に配慮した健全なAI学習環境を整備する。
◆ 生成AI活用に関する試行錯誤を共有し、AI時代における教育の在り方を提案する先導的役割を遂行する。
4. 重点項目
(A)学生向け教育の充実
◆ 教育・学修における生成AI利用に関するガイドラインの策定
◆ AIリテラシー科目の開設と提供
◆ AI for Science科目の開設と提供
◆ 自律的な学修を支援するコンテンツやツールの開発と提供
(B)教員向け支援の充実
◆ 教育・学修における生成AI利用に関するガイドラインの策定(再掲)
◆ 教育における生成AI活用に関するFD(Faculty Development)の提供
◆ 教育における生成AI活用に関する情報提供(ウェブサイトの構築)
◆ TAS、TA、事務スタッフ等の教育業務支援に関するSD(Staff Development)の提供
(C)情報環境基盤の整備
◆ 大学アカウントによる生成AI利用環境の整備
◆ KULASIS、LMSとの接続性の確立
◆ 個人情報保護、データ・ガバナンスの強化
5. 推進体制
教育・学修における生成AI活用の価値を最大化し、リスクを最小化するために、部局横断的な「対話」の場を構築していく。教育改革戦略本部を中心に、情報学研究科附属次世代情報・AI教育研究センター、国際高等教育院、大学院教育支援機構、学術情報メディアセンター、情報環境機構が連携し、教育・学修における生成AI活用に関する方策の企画と実施を推進する。AI for Scienceの教育等に関しては、適宜、総合研究推進本部との連携を図る。
6. 行動計画
2025年度
● 実態把握のためのアンケートの実施(教員・学生対象)(以下、年度ごとに実施し、経年変化を把握する)
● 教育・学修における生成AI利用に関するガイドラインの策定
● 教育・学修におけるAIイニシアティブに関するウェブサイトの構築
2026年度
● 学生へのGoogle テナントの提供の開始
● 教育・学修における生成AI利用に関するガイドラインの公表(以下、適宜見直し改訂する)
● AIリテラシー科目、AI for Science科目の開講
● 教員向けFDの開始
2027年度
● 自律的な学修を支援するためのコンテンツやツールの開発
● TAS、TA、事務スタッフ等の教育業務支援に関するSDの開始
2028年度
以下、継続的に改善を図る
7. おわりに
生成AIを使いこなす力とは、単にツールを使う技能ではなく、生成AIも含めた知の在り方を検討し、深い人間理解に根差しつつ多元的な課題の解決に取り組む能力である。
AI時代において、京都大学は、卓越した知の継承と創造的精神の涵養を実現する教育環境を、学生と教職員の協働により築いていく。
なお、本イニシアティブについては、適宜改訂していくことを予定している。
解説動画(情報学研究科附属次世代情報・AI教育研究センター製作)
令和8年3月11日 教育担当理事裁定
1. はじめに
京都大学は、「自由の学風」のもと、対話を根幹とし、自学自習を基本とする教育を重視してきました。教育における生成AIの活用は、学修の効果を高める可能性もある半面、いくつかの点でリスクも孕んでいます。
生成AIの利用にあたっては、自動車の運転と同様に、単なる操作の習得にとどまらず、その利便性の裏にあるリスクを認識し、安全性を担保する方途を深く理解することが求められます。特に生成AIの場合、情報の誤りや権利侵害といったリスクが目に見えにくいという特性があります。そのため利用にあたっては、こうした潜在的なリスクを常に想像しつつ、責任ある姿勢で向き合うことが求められます。
本ガイドラインは、教育・学修における生成AIの利用に関して、現時点で教職員と学生に共通理解されるべきと考えられる要点を示すものです。
2. 生成AIに期待されるメリット
◆ 効率化:定型的な作業の補助を生成AIに担わせることで、より本質的な活動に注力することができる。
◆ 学習効果の向上:生成AIを「答えを出すツール」ではなく、思考の整理やアイディア出しの補助として用いることで、視野や発想を広げたり、論理的・批判的な思考力を鍛えたりすることができる。
◆ 多様なニーズへの対応:生成AIを用いて学生の個別ニーズに対応した支援を提供することにより、多様なニーズに応じた教育・学修の充実を図ることができる。
3. 予想されるリスク
◆ 誤情報の出力(ハルシネーション):生成AIは確率的に言葉をつなげているにすぎず、事実に基づかない誤情報を出力することがある。これを鵜呑みにすることは、学問の正確性を著しく損なう。
◆ バイアス:生成AIの学習データに含まれる偏見(人種、ジェンダー等)が出力結果に反映される場合がある。
◆ 情報漏洩:入力したプロンプトが学習データとして利用されることで、未発表の研究内容や個人情報、機密情報等が外部に流出する恐れがある。
◆ 知的財産権・肖像権の侵害、剽窃・不正行為:生成AIの出力結果の利用により、知的財産権(著作権等)や肖像権を侵害する場合がある。生成AIの出力結果をそのまま自分の成果物とすることは、不正行為となることがある。
◆ 学習目標からの逸脱:生成AIに過度に依存すると、外国語の翻訳・作文やプログラミングを含めて、大学で修得すべき教養や専門的知識・スキルが身に付かない。
◆ 思考力・創造性の減退:生成AIに過度に依存することで、論理的・批判的思考力や創造的な文章構成・コミュニケーションの能力が涵養されないばかりか減退する恐れがある。既存のデータを基に結果を出力する生成AIに依存することで、独創的な発想、常識を疑う態度、および資料を詳細に読み解く力の伸長を阻害しかねない。
◆ 精神的な依存:生成AIは基本的に否定的な文面を出力しないため、日常的に長時間にわたり生成AIとのコミュニケーションを続けると、対人コミュニケーションや社会的活動で生じる葛藤における心のレジリエンス(耐性・回復力)の低下、さらには生成AIへの精神的な依存に陥るといった問題が生じる恐れがある。
4. 必要な対応策
(1) 学生に求められる対応
◆ 自覚的な利用:生成AIのメリットとリスクを認識し、学習目標(ひいては大学で学ぶ目的)に沿った上で、効果が最大となるよう意識するとともに、倫理的な配慮を行うこと。
◆ 入出力上の注意:プライバシーに関連する情報、機密情報、著作物などをプロンプトやアップロードデータとして安易に入力することは避けること。また出力結果を利用するに当たっては、それが著作権、肖像権等を侵害するものでないか(他者の著作物や肖像等と類似していないか)を調査すること。
※これらの情報の入出力に関する注意を別紙にまとめましたので参考にしてください。
◆ 批判的検証と自分の考え・言葉による咀嚼:生成AIの出力結果を常に疑い、一次資料に基づいた厳格な検証(ファクトチェック等)を行うこと。バイアスの可能性について、意識的に検討すること。生成AIの出力結果をそのまま受け入れるのでなく、他の観点はないか検討するとともに、自らの考え・言葉を介して用いること。
◆ 利用プロセスの明示:文章表現の修正の枠を越えて生成AIを利用して成果物を作成する場合には、作業プロセスの記録を保存すること。求められる場合には、どの過程で、どの生成AIを、どのように使用したかを明示すること。AIの出力結果を自分の成果物に利用すると、他の文献等の剽窃(コピペ)となる可能性もあり、不正行為と判断される場合がある。
◆ 利用方針の遵守:授業の履修(レポート執筆等を含む)や論文執筆に当たっては、担当教員・指導教員が示す生成AI利用方針に従うこと。
◆ 対人コミュニケーションの機会確保:生成AIの利用時間が日常的に1日につき3時間を超え、人に相談するよりも生成AIに相談することが増えたり、人と話すことが煩わしいと感じたりするような場合は、生成AIへの依存に陥ることを防ぐため、意識的に生成AIの利用を控え、対人コミュニケーションの機会を設けること。
(2) 教員に期待される対応
◆ 生成AI利用方針の明示:授業や研究指導の目標に応じて、生成AIの利用方針を学生に明示する(例:「積極的に利用する」「利用を一部認める」「利用を認めない」)。特に、生成AIの活用力の涵養を目指して「利用を必須とする」科目や、生成AI活用の前提条件となる専門知識やスキルの涵養を目指して「利用を認めない」科目では、その旨をシラバス等で事前に明示することが望ましい。
◆ 課題の洗練:生成AIで容易に解答可能な課題を避け、より本質的な学習を促進する、 多様なタイプの課題を組み合わせるといった工夫をする(例えばレポート課題とともに筆記試験・口頭説明・実演などを用いる)。
◆ 批判的思考力や創造性の推奨:生成AIの利用を推奨する場合でも、その出力結果を学生自身の考えと比較させる、あるいは学生同士で議論させるなど、批判的思考力や創造性の涵養に努める。
◆ 学習機会の保障:生成AI利用を推奨する場合でも、利用を希望しない学生に対して不利益が生じないよう代替案を用意する(ただし、生成AIの活用力の涵養を目標とする科目は除く)。
◆ 成績評価における公平性の担保:基本的な教養や専門的知識・スキルの修得が目標の科目では、生成AIを安易に使う学生が有利にならないよう、筆記試験や口頭試問などで理解度を確認する。
5. まとめ
京都大学では、人間とAIが共存する時代に求められる新たな教育・学修の在り方を、教職員と学生の協働により構築していくことを目指しています。基本理念に掲げる「卓越した知の継承と創造的精神の涵養」を実現するために、生成AIの利用によるリスクを回避し、メリットを最大化する教育・学修を追求していきましょう。
なお、本ガイドラインについては、適宜改訂していくことを予定しています。
<参考>
京都大学 情報環境機構「生成AIサービスにおける情報セキュリティ上の注意点と学内の各種生成AIサービスについて」
https://www.iimc.kyoto-u.ac.jp/ja/info/20251212141618
大阪大学「生成AI教育ガイド」
https://www.tlsc.osaka-u.ac.jp/project/generative_ai/
UCLA「Creating a Generative AI Policy for Your Course」
https://teaching.ucla.edu/news/creating-a-generative-ai-policy-for-your-course/
AI Assessment Scale (AIAS)
https://aiassessmentscale.com/
----------
別紙 京都大学の教育・学修における生成AI利用に関するガイドライン:学生に求められる対応(入出力上の注意事項)
生成AIの利用時には、プライバシー関連の情報、機密情報、著作物をプロンプトやアップロードデータとして入力すること、また出力結果が他者の知的財産権(著作権等)や肖像権を侵害する可能性があることに注意が必要です。
特に、入力した情報がAIモデルの学習に利用されるか否かということについても注意を払う必要があります。利用者が入力した情報を学習に利用するタイプの生成AIサービスでは、他者がその生成AIを利用して得た出力結果にあなたが入力した情報が含まれてしまう可能性があり、結果的に情報が流出・漏洩する恐れがあります。
このような問題を避けるため、学習に利用しないことが明記されているサービスや、学習に利用しないことを利用者が選択できる(学習の「オプトアウト」と呼びます)サービスを利用することが重要です。
<注>
学生用Google Workspaceで利用する生成AIツール(GeminiやNotebookLM)については、「Google Workspaceの生成AIに関するプライバシーハブ」の規定に基づき、入力データやアップロードされた資料がAIモデルの学習に再利用されることはありません。これは、入力情報が大規模言語モデル(Large Language Model: LLM)などの学習に使われない(学習オプトアウトが確実である)ことを意味します。
ただし、「学習に使われない」ことは「情報漏洩のリスクがゼロである」ことを意味するものではありませんので、十分注意してください。
下記には、生成AIに入力する情報について、そもそも入力すべきではない情報、入出力に慎重な取り扱いを要する情報、入力してよい情報に分類し、例をあげながら整理しましたので参考にしてください。
【A】生成AIにそもそも入力すべきではない情報
プライバシー関連の情報のうち、氏名、マイナンバー、パスポート番号・在留カード番号、顔写真などの個人の識別性が極めて高い情報は、基本的に生成AIサービスに入力してはいけません。これらの情報は流出・漏洩した場合の被害が極めて大きく、万一そのような問題が発生した場合に取り返しがつかないことも多いためです。銀行口座番号・クレジットカード番号などの金融情報、住所・電話番号・私的メールアドレスなどの連絡先情報も同様です。
また、研究室に所属して研究を行う際には研究データの一部として他者のプライバシー関連の情報を取り扱う場合があるかもしれません。そのような情報は機密情報に該当することがあるので【B】(b)の項を参照してください。
<注>
オプトアウト設定(入力した情報がAIモデルの学習に利用されない設定)がなされている場合であっても、【A】に該当する情報は基本的に入力すべきではありません。これらの情報は、即時的な漏洩や不正利用による被害が極めて大きく、学習利用の有無によってリスクが実質的に軽減されるものではありません。なお、調査にあたって、インタビュー動画をオプトアウト設定したAIで文字起こしする場合には、予め調査対象者の許可を取ってください。
【B】入出力に慎重な取り扱いを要する情報
(a) プライバシー関連の情報
年齢・性別・国籍、所属学部、思想・信条、病気・メンタルの悩みなどについては、【A】で述べたような個人の識別性が高い情報と結びつかない形であれば入力しても構いません。ただし、プライバシー関連の情報を組み合わせることで個人の識別性が高くなってしまうことがあるので、入力情報の匿名性については常に注意しましょう。
(b) 機密情報
学生の皆さんが大学の機密情報を取り扱う機会は多くはないかもしれませんが、TAやRAとして雇用される場合や、研究室に所属して研究を行う場合などには取り扱いに注意すべき情報を扱う可能性があります。例えば、未発表の研究データがそれに該当します。
そのような情報についてはそもそも外部サービスへの入力が制限されているケースがありますが、学内環境に閉じたサービスや大学が機関として契約するサービスであれば入力が許容されている場合もあるので、情報の取扱方法について監督者や指導教員などに確認してください。
また、一般的な生成AIサービスの挙動の注意点として、入力した情報がサービス全体で共有されるAIモデルの学習に利用されることがあります。そのような場合は入力した情報が間接的に他者のAI利用結果に含まれてしまう可能性があり、結果的に情報が流出・漏洩する恐れがあります。機密情報である以上、外部サービスの利用が許される場合であっても流出・漏洩は許されないので、学習のオプトアウトが可能なサービスを選択する必要があります。
(c) 著作物・肖像
著作物については、利用目的が私的使用や教育機関における授業の過程におさまる場合は入力できます。例えば、適切に入手した論文の要約や翻訳を生成AIにさせたい場合、出力結果を他者と共有しなければ生成AIを利用可能です。
ただし、利用するサービスに学習のオプトアウトの設定がない場合は「出力結果を他者と共有しない」という前提が崩れる恐れがあるため、サービスを利用する前にオプトアウトの設定を確認しましょう。
もし出力結果を他者と共有したいときは、生成AIが入力した著作物をそのまま、あるいは類似した情報を出力してしまう可能性を持つことに注意しましょう。また生成AIの性質上、入力した情報が著作物を含まなくともAI自身の内部情報を元に既存の著作物に類似した情報が出力される恐れもあります。出力結果に著作物と類似した情報が含まれる場合は、その部分が著作権の対象となる可能性があるため、結果を出力した際は他者の著作物と類似していないかを調査し、権利の侵害の恐れがある場合は結果を共有しないようにしましょう。生成AIと著作権の関係についてより理解を深めるには、文化庁の著作権セミナー「AIと著作権」の資料を参照してください。
肖像についても出力上の注意が必要です。出力結果の画像に特定の人の肖像との同一性が認められる場合はその部分が肖像権の対象となる可能性があるため、結果を出力した際は他者の肖像と類似していないかを調査し、権利の侵害の恐れがある場合は結果を利用しないようにしましょう。生成AIと肖像権の関係についてより理解を深めるには、経済産業省の「コンテンツ制作のための生成AI利活用ガイドブック」を参照してください。
なお、生成AIサービスに(a)(b)(c)の情報を入力するにあたり、オプトアウトが確実に適用されるかどうかの信頼性や機密が守られるかどうかの確実性は個々のサービスによって大きく異なると考えられます。一般的には学内環境に閉じたサービス、大学全体で契約した外部サービス、個人で契約したり無償で利用できるサービスという順でオプトアウトの信頼性や機密保護の確実性が高いと考えられ、扱う情報の種類や機密性によってサービスを使い分けることが重要となります。この点をより深く理解するためには、京都大学情報環境機構「生成AIサービスにおける情報セキュリティ上の注意点と学内の各種生成AIサービスについて」を参照してください。
<注>
オプトアウト設定がされている場合、【B】の情報については、(b)および(c)に記載したとおり、条件付きで入力が許容される場合があります。例えば、未発表の研究データそのものを入力することは原則として避けるべきです。一方で、研究の背景説明、方法論の一般的な検討、構成や論理の整理など、機密性を十分に低減・抽象化した情報であれば、指導教員の確認を前提として利用が認められる場合があります。
情報の性質や粒度、とりわけ出力結果の取り扱いには引き続き注意が必要であり、利用にあたっては授業の担当教員や指導教員などに必ず相談してください。
入力した著作物がAIモデルの学習に利用されない場合、当該著作物が他者の出力に再利用されるリスクは低減されます。そのため、教育・学修目的での要約・翻訳、文章構成の支援などは、より安全に行うことが可能となります。ただし、(c)で述べたとおり、出力結果を第三者と共有する場合には、著作権侵害の有無を利用者自身が確認する責任がある点に変わりはありません。
【C】入力してよい情報
一般論としての学習相談や、架空事例の検証、レポート構成の相談、プログラミングの一般的質問、語学学習や例文生成のための指示などで【A】【B】に該当する情報を持たない場合は、生成AIに情報を入力して構いません。
<参考>
文部科学省高等教育局 「大学・高専における生成AIの教学面の取扱いについて(周知)」https://www.mext.go.jp/b_menu/houdou/2023/mext_01260.html
文部科学省初等中等教育局「初等中等教育段階における生成 AI の利活用に関するガイドライン」
https://www.mext.go.jp/content/20241226-mxt_shuukyo02-000030823_001.pdf
情報環境機構「生成AIサービスにおける情報セキュリティ上の注意点と学内の各種生成AIサービスについて」
https://www.iimc.kyoto-u.ac.jp/ja/info/20251212141618
文化庁 令和5年度著作権セミナー「AIと著作権」
https://www.bunka.go.jp/seisaku/chosakuken/pdf/93903601_01.pdf
文化庁 令和6年度著作権セミナー「AIと著作権II」
https://www.bunka.go.jp/seisaku/chosakuken/pdf/94097701_02.pdf
経済産業省 コンテンツ制作のための生成AI利活用ハンドブック
https://www.meti.go.jp/policy/mono_info_service/contents/ai_guidebook_set.pdf
個人情報保護委員会「生成AIサービスの利用に関する注意喚起等」
https://www.ppc.go.jp/files/pdf/230602_alert_generative_AI_service.pdf
大阪大学 SLiCSセンター・全学教育推進機構教育学習支援部「生成AIに関する注意点」
https://www.tlsc.osaka-u.ac.jp/project/generative_ai/important_point.html
九州大学 未来人材育成機構「九州大学の教育における生成AI利活用の注意点~学生向け~」
令和8年3月11日
学生のみなさんへ
教育担当理事 國府 寛司
生成AIを使いこなす力とは、単に新しいツールを操作する技能にとどまりません。それは、生成AIを含めた知の在り方そのものを検討し、人間とは何か、言葉とは何か、知とは何かという根源的な問いを引き受けつつ、多元的で複雑な課題に取り組む能力を意味します。その能力を培いながら、私たちは常にその使用に伴う可能性とリスクを検討し、どこまでをAIに委ね、どこまでを自分の責任として引き受けるのかを、その都度、考え続けていく必要があります。
生成AIは既存の知の在り方を変えながら、私たちの考える速度や表現の速度、発想の接続の仕方そのものを抜本的に変えていきます。専門領域の壁や言語の壁を越えて、これまで出会えなかった資料や議論を参照できることで、異なる分野の知を繋ぎ直しながら、新しい問いを立てることが可能になるでしょう。自分の専門外にある概念や方法論にもアクセスしやすくなるため、個人の学びが加速し、研究の入り口を大幅に増やせる可能性もあります。適切に生成AIを利用することで、従来は限られた時間や学習によって制約されていた探究の射程があらゆる方向に広がり、学問の営みはより横断的で、より創造的なものへと開かれていくことが期待できます。
しかし一方では、多くのことを可能にするこの技術がもたらす不自由やリスクについても深く考えていかねばなりません。実際、技術から自由になることは決して容易ではありません。注意深くその技術を使用しているつもりでも、いつのまにか思考の幅や判断の枠組みが限定されていくことに繋がるからです。生成AIがもたらす効率化や便利さは過度な依存と表裏一体の関係にあることも指摘されています。今後この技術がさらにコモディティ化して多くの人が生成 AI に頼るようになったとき、専門的な知識や高い言語運用能力、思考力や想像力、記憶力が人間側にない状態を想像してみてください。技術環境が利用できない状況で即応的な知を要求される場面を想像してみてください。目の前に現れる言葉や画像・映像を無批判的に受け入れるしかない自分の姿を思い描いてみてください。
後年、みなさんには、自分が大学においてどんな知的訓練を積んだのかを、より若い世代に語るときが訪れるでしょう。そのときみなさんは、自分よりも若いAIネイティブ世代に対して、自分の知の修養時代について何を語るでしょうか? 均質化する言葉やイメージの増加を体感していくなかで、みなさんはこれから、どのような知の訓練を選ぶでしょうか? 「自分の力で」という言葉が変化していくなかで、みなさんは何を「自分」に含めるでしょうか? もちろん、これらの問いにあらかじめ用意された答えはありません。ここは京都大学ですから、その答えを作りだすのはみなさんの自由です。
重要なのは、技術がつくりだす自由と不自由さを自覚し、その内側でどのように考え、どのように言葉を選び、どのように判断するのかを不断に問い続ける姿勢です。自由は、制約を引き受けたうえでなおも思考し続けようとする営みのなかから生まれます。どの時代でも、自由を作り出すことができるのは、不自由さを思い知る者のみです。その不自由を抜け出して自由をつくりだす経験こそが、やがてみなさん自身が次の世代に語ることのできる「知の来歴」となっていくはずです。最後になりますが、京都大学に入学した自分に、「いったい何のために大学に入ったのか」という問いをつきつけながら、そして新しい時代のなかで新しい知をつくりだす気概のもとに、この創発的にも破壊的にもなりえる新しい技術に触れてほしいと思います。
以 上
<教育改革戦略本部教育改革企画室教育DX 検討タスクフォース委員>
西岡 加名恵 理事補(教育担当理事)、教育学研究科・教授
大嶋 正裕 副本部長、副学長(国際高等教育院担当)、国際高等教育院長、
大学院教育支援副機構長/大学院共通教育部長
河原 達也 情報学研究科附属次世代情報・AI 教育研究センター長・教授
緒方 広明 学術情報メディアセンター・教授
南谷 奉良 文学研究科・准教授
眞鍋 雅恵 総合研究推進本部・特定専門業務職員
<協力者>
森村 吉貴 情報環境機構・教授
古村 隆明 情報環境機構・上席専門業務職員