AIでは判断できない不可解なミス
先日ちょっと不可解なミスを見つけてしまいました。
それがこちら

まず大問1の(2)の間違いですが,0.17と間違えています。
そしてこの間違いの原因を探ると,どうやら50,100,200…と足している形跡が。
つまり,これが連続した実験ではなく,1回1回の単体の実験だと勘違いしていたんですね。
そして大問2の(1),(2)の間違い。
これができていないのに,(3),(4)は正解している。
この理由は,「クラブ」「クイーン」が何かわからなかったから。
「クラブ」のことを「クローバー」と呼んでいる子の場合,クラブと言われてもピンとこないのです。
この子にとってはクラブではなく,クローバーが常識ですから。
これらの間違いは,解釈によるミスが原因です。
決して理解できていない訳でも,実力がないわけでもありません。
しかし,AIに判断をゆだねると,理由に関係なく一律に「このタイプの問題を理解していない!」と判断され,似たような問題を練習するようにという指示がはじき出されます。
AIは所詮多くのデータの中から,最適解を見つけているに過ぎず,それが正しいかどうかは別問題なのです。
AIに頼るのがいけないわけではありません。
しかしAIを過信しすぎると痛い目を見ることになります。
どこぞの大手の塾のエンジニアがシステムを披露してくれたことがあるのですが,突っ込みどころ満載でした。
そしてその方がこんなことを言っていました。
「先生が要求するようなAIはまだできない。本部が要求しているのは顧客にそれっぽく見せるシステムであり,正しいことを伝えるシステムではない。」
と。
大手とはいえ,偏差値と平均点しか統計学を扱えないような塾ですからね。
でも経営方針としては立派です。
大多数をカバーできれば,少数派はこぼしても収益は上げられますから。
AIは結局一般的な多数派をカバーしているに過ぎず,自分が多数派ではなかった時には合わなくなるのです。
PHIではどのような間違いをしているかで,どんな勉強が最適かを診断しています。
AIではなく,人の心理まで考慮に入れた,他では例を見ない分析をしています。
今の勉強スタイルが気になる方は,学習法診断をご利用下さい(^^)/
コメントを残す