「生成AIを使ってどんな悪いことができそうですか」

昨日、生成AIを使う際には、「情報の正確性」と「自己判断」について、事前に子供たちに理解させることが必須だと述べました。

では、実際には、どのように授業するのか、教育トークライン2023年8月号の特集の記事の中からみていきます。

最初は、とにかく、実際に生成AIを子供たちに使わせてみます。記事から参考になる例を取り出してみます。
佐藤智彦氏は、 国語の「短文作り」や社会科での「 国会の仕事を30字で要約する」際に、生成AIを使わせています。
要するに、普通の授業の問いに生成AIを使って答えさせたわけです。

その上で、こんな発問を佐藤智彦氏はしています。

「生成AIを使ってどんな悪いことができそうですか」

なるほどです。… 続きを読む

生成AI「情報の正確性」「自己判断」というキーワード

生成AIを子供たちに使わせる前に、「生成AIの課題と限界」について、子供たちに理解させることが必須です。
生成AIを絶対視して、これを使えば間違いはないと思わせてはいけません。

教育トークライン2023年8月号に、吉原尚寛氏が「生徒に生成AIを使わせるべきか否か」を、当の生成AIに尋ねて、返ってきた答えがあります。

「ChatGPTは、豊富な情報を即座に提供するAIです。
積極的に使うことで学習や情報収集が効率化しますが、情報の正確性を自分自身で確認し、自己判断を放棄せずに使うことが重要です。 これをうまく活用すれば、学びのパートナーとして新たな視点や知識を得られます。」

吉原氏は、ここから「情報の正確性」「自己判断」というキーワードを取り出しているのです。

情報の正確性においては、そもそも、その回答の元となる情報に誤りがあったり、古いものであったりすると、回答はもちろん危ういものとなります。

加えて、その情報に「個人情報」が含まれていたら、そこから生まれた回答が拡散することで、思わぬ事件・事故が起こることもありえます。

そして、その情報の正確性の判断も含めて、自分の責任をもって判断しなくてはなりません。… 続きを読む