ChatGPTでの不正行為

スポンサーリンク

ソフトウェア エンジニアリングの求職者を採用するためのプロセスでChatGPTのようなAIチャットボットでの不正行為はだめなのかについて考えてみます。

ChatGPTでエンジニアがコーディングテストを不正、採用者はどう対応すべき?

ChatGPT関連のニュースをチャックしていると上記の記事が公開されており気になって読んでみました。開発者のスキルを選別する自動コーディングテストがAIの餌食になる可能性があるというもので、すでに日本においても、自動コーディングテストでChatGPTのようなAIチャットボットを用いてテストに望む者も出てきているだろう。

このようなことが進めば受験者の主題に関する知識と理解を評価するというテスト自体の目的を無効になり、テストの信頼性を失う。その結果、雇用主の間で疑念と不信を引き起こすとあるが、果てして本当にそうなのだろうか?と疑問だ。確かにテストは目的ではなく雇用するソフトウェア エンジニアリングの候補者を選ぶための手段ではあるが、テストで候補者の能力を全て示すことができないと考える。また雇用主が望むのは会社にいかに利益をもたらしてくれるのか、もしくは貢献してくれるか、そこではないかと考える。であれば、記事にも書かれているが、ChatGPTのようなAIチャットボットに、新しくエキサイティングなことをさせるために必要な問題解決や思考プロセス、使いこなせているかがより評価される時代になっていると私は考える。また技術面接は、根本的に人間が行う部分を評価することにシフトしていくと考える。ChatGPTのようなAIチャットボットは、ソフトウェア開発者または人間にとっては、1つの道具、ツールであるので、今は「ChatGPTでの不正行為」と言われているが、将来的にAIチャットボットを人が理解し受け入れはじめ、使うことが当たり前のようになっていくだろうというのが私の意見だ。

あと私にいえるのは、もし仮にChatGPTでの不正行為で候補者がソフトウェアエンジニアに採用されたとしても、その後社会で安定して暮らせるようになる保証はどこにもないということだ。

タイトルとURLをコピーしました