最近,機械学習流行ってますよね.
私も流行りに乗ろうと思って,GitHub Copilotを使い始めたんですよ.それに関する失敗話があるので,お話しします.
Copilot(コパイロット,副操縦士みたいな意味)というのは機械学習を使ったコード補完&提案ツールです.
プログラミングの世界におけるDeepLみたいなやつ.
「どんなもんじゃい,お前さんの力見せてみ」と思って HarvardX *1の課題で使ってたんです.ちょうど良かったから.*2
なかなか便利で,「すごいやん」って思ってたんですけど,つい先日とんでもないことが判明しました.
Copilot, 大学側から禁止されてたんですよ…….
それも単なる「非推奨」ではなくて,使ったことがバレたら即退学でした.
海外の大学は不正行為に対して日本より厳しく,露見したら言い訳もさせてもらえず即退学!!が普通なので予測の範囲内ではあるのですが,誤算だったのはすでに課題を提出してしまっていたことでした.
なんとも呑気なことに私は Copilot の設定ファイルを Git のコミットログに残したまま提出してしまっていたので,調べられたら間違いなくバレます.そして退学です.
きゃー!
なんでそんな大事なこと調べてないんだ!と思われたかもしれません.
全くその通りで反論できないのですけど,一応言い訳しておくと「調べないとわからない」程度にしか強調されてなかったんです.
不正行為とその罰則は Academic Honesty というページにまとめられているのですけど,「他人に解答を見せてもらってはいけない」とか「他人がアクセスできる形で解答をアップロードしてはいけない」とか当然としか思えない項目が並んでいるなかにひっそり「AI使うのも禁止」と書かれているので見落としてしまったんですよ.
そもそも英語苦手で頑張らないと読めないし.
もちろん,だからといって許してもらえるとは期待できないんですけど…….
これで私の今までの努力も水泡に帰したか*3......とだいぶがっくり来たんですが,先述の Academic Honesty のページを改めてよーく読むと「72時間以内に自首すれば退学だけは許してやろう」と書いてありました.
これかなり寛容ですよ.さっきも言った通りふつうは即退学なので.
急いで懺悔メールを大学の担当者宛に送りまして,なんとか退学は免れました.あと,授業の履修を続けることも許してもらえたみたいでよかったです.