指針では、生成AI活用の適切でないと考えられる例と、活用が考えられる例を提示。
不適切な場合として、AIの生成物をそのままコンクール作品として応募・提出すること、定期テストや小テストで子どもたちに使わせることを挙げた。
不正利用を規制する事が優先されてどう活用する者なのかを教えようとしないのが日本の教育が遅れてしまう原因なのかと思います。
今、危険だとされるエゴサーチのような行為を当初から帰省していたでしょうか?
実施してみないと分からない事があるのを前提に説明しておいた方かよいでしょう。
規制するのなら当初から2ちゃんねるの書き込みとかを遣っておくべきでしたよね。
そうすれば配信者のごく一部のように迷惑行為で目立とうとする人もさほど増えなかったのかと思われます。
生成AIを使い熟す前に必要な事を最低限教えないと不正行為以前に問題を起こしてしまう危険性が高いのでしょう。
生成AIによる不正行為以前に信頼性の勉強もさせないといけないのかと思います。
知らない人についていかないと言うようなレベルの話です。
ChatGPTで書かせてどの程度問題なのかを教えてあげるべきです。
子供だましと言ったら失礼ですが、残念ながら日本語のだとその程度ですから。
英訳や日本語訳で示せば分かり易いのでしょうけど、意訳や日常会話のフレーズなんて出て来ませんから。
場面場面で用いられる英語を堪能している通訳ソフトなんてないのでは?
だから、生成AIに回答例を作らせてその一致率を見られるようにしておくべきでしょう。
と言うか最初からその事を伝えておくべきかと思われます。
それで補習とか罰ゲームを予告しておいたら、不正をやる気は失せるのかも。
特にアイデンティティや自己表現を伸ばそうとしているのに生成AIを使用させるのはまだ早いのかと考えます。
義務教育が終わった後とかで使用方法を教えて、その際にも生成AIによる点は明示させるなどしないと著作権に抵触します。
本人は悪意が無くても下手すると誤用はそこらじゅうで使用されていますから。
その誤用の判断が出来るまで少なくとも学校外へ文書を出す事の怖さを教えておくべきかと思えてきます。
機械でもそうですが危険なのをみっちり教え込まないと命取りになります。
ついでに相手が居てその人が傷つく恐れも有るのも教えておいた方が将来の為かと思います。
当初は生成AI自体の未熟さを書こうとしていたのですが、結論として生成AIを使用するならその間違いを指摘できるレベルでないとリスクが伴うと言う事になりました。