ニッポンの教育ログを考える——プライバシーフリーク・カフェ#16(後編)

(司会)高木浩光
(パネリスト)山本一郎/板倉陽一郎/鈴木正朝

大変、大変お待たせいたしました。去る2022年1月20日に開催されたプライバシーフリーク・カフェのをお届けします。16回目を迎える今回のテーマは「教育ログ」。ITmediaさんからCafe JILISに場を移してのお届けとなります。前後編の後編となります。前編はこちら

「教育データ利活用ロードマップ」、巷の反応を受けたQ&A

高木:後半は、本年1月7日に、デジタル庁が「教育データ利活用ロードマップ」を公表したところ、Twitter世論が炎上してしまったという。あ、私は別になにも言ってないですよ(笑)。皆さんがギャーって言ってるのをリツイートしてただけなんですけど、「皆さんの反応です」って紹介しただけなんですけど、やっぱり、あのロードマップを見ただけで、かなりの人たちが、それも、これ、一般の方々ですよ。なんか特別な、あの……

鈴木:プロ市民ですか?

高木:そう、言葉を迷いましたけど(笑)、一般の方がですね、何コレって言ってるわけですよ。デジタル大臣が「一元管理しません」と。「分散管理です」って。それ、何も釈明になってないわけですよ。Change.orgとかでも反対キャンペーンが始まって15,000人ぐらいまで賛同の声が集まっているようですけど、野党も反応してきて、なんかちょっと違う趣になってきましたね。なんかちょっと……えっと、なんて言えばいいんですか?

鈴木:イデオロギー的っていうか、党派性というか。

高木:反政府的な声が入ってきそうな感があるので……

鈴木:いつもの「何でも監視国家論」みたいな。

高木:そうじゃなくてどこが問題なのかっていうのを、我々としては説明していこうと思ってます。

鈴木:我々は、何でも監視国家論者の批判派とは与しないですよ。集めてから考えるような推進派とも組まない。両方ダメなんで。日本の政策をダメにしてんのは彼らですからね。

高木:そうそうそう、その話もいずれちゃんとしたい。今日も、時間あれば少ししたいと思いますけど。

鈴木:まあ、左右両極で戦って対消滅していただきたいと。それが日本のためですよね。彼らがいなくなったあとに、はじめてエビデンスベースの合理的なポリシーメイキングがはじまる。

高木:いやいや(笑)、本当ですよね。

鈴木:本当です。

高木:で、ここにきて、なんと、デジタル庁から「Q&A」っていうのが出てきたわけです。ええ、こちらですね、Q1、2、3、4、5とあります。最近吹き上がっている批判に対して答えているっていうことなんでしょうけど、いやいやいや、そうじゃないという。まさに我々の今日のこの説明のために準備してくれたかのような、おあつらえ向きのQ&Aが出てましたので、これに沿って一つひとつ問題をチェックしていこうと思います。

デジタル庁「教育データ利活用ロードマップに関するQ&A」(2022年1月17日)1頁

まずQ1。「このロードマップの目的は何ですか」と。「教育データを何のために利活用するのですか」ということなんですけどね。「2頁、3頁、4頁、5頁をご覧ください」って書いてあるので、ちょっと見に行きますか。

デジタル庁「教育データ利活用ロードマップに関するQ&A」(2022年1月17日)2頁

高木:こういう感じですね。うん。まあ、いいですよ。ネット経由でどこでも学べるっていうのは、いいですよね。なんかこう、しょぼんとしていると、気づいてくれるとか。

鈴木:はい。

高木:あと、「自分らしい学び」「特性に合わせて選べる」っていうあたりですかね。この辺がちょっと、どうやってやるの?って感じがしてきますよね。それから、この「将来イメージ」っていうところに、「データがたまる・つながる」と、なんかこう、改善ができるとか。効率化ができるとか、ざっくりとした感じの、目的が挙げられていて。

デジタル庁「教育データ利活用ロードマップに関するQ&A」(2022年1月17日)3頁

自分に適した教材や学習方法が選べること、課題のある児童生徒をデータで早期発見するっていうことを、言ってるわけですね。大阪の例とか埼玉の例などが挙げられているというわけです。

これはいいんですけど、もうちょっとその、具体的にこう、何のために教育データを利活用するのか、はっきりさせないと。いかんのではないですかね。

デジタル庁「教育データ利活用ロードマップに関するQ&A」(2022年1月17日)1頁

高木:次に「Q2」。問題はここです。まいどまいどIT室は、今はデジタル庁ですか、が言うのは、「データを一元管理することは考えていない」と。事あるごとに言うんですよね。ここを見ると、「赤字で明記をしております」って。そう書いてあるじゃないか!ムキーッ!ってとこでしょうか。そんなこと言われても、「は?」って感じでしかないんですよ。そんなことが問題なんじゃないわけでね。

板倉:これはね、マイナンバーのときに、全部(巨大なデータベース一つに)まとめると、まとめて流出したら全部出ていっちゃうじゃないかっていうことに対する反論として、それぞれは持ったまんま必要な時だけ連携しますよっていう意味で分散管理って言ったわけです。データ保護との関係のリスクは、必要な時だけ連携するのが自由だったら、それぞれが持ってたって一緒なんですよ(笑)。物理的に別々のところに保存していたらセキュリティのリスクは下がりますよ。そうじゃないですからね。データの取り扱いのリスクの話をしてるわけですから。セキュリティ面の担保にしかならんわけですよ。

高木:ですよねー。

鈴木:まあ、何でも監視国家論の人は何が脅威かっていうことを押さえられていないんですよ。だからなんでも怖いということになるんですが、それゆえにもわっとプライバシー侵害としかいえない。その結果、福祉行政や生存権の基盤まで殺しちゃう。そこは本当に愚かなんですよね。そして、何が脅威か?と問われると、情報漏洩以外を思い浮かべられない人たちなんですよ。だからね、本当はお前ら黙ってろって言うレベルなんですよね。無理に専門家ぶって基本書めくって意見書書かなくていいから、不安は不安ですとだけ言ってろという話しなんですが。これ批判がピントずれていると、それに対する回答もまた悪くズレてきて、結局何の生産性もない議論に終始してしまうのですよね。

高木:そうですね。ちょっと先に皆さん向けに言っておかないといけないかもしれない。今回の問題は、データによってどういう評価が行われるのか、それは妥当なのかっていうことや、どんなデータを使うかっていうところに問題の本質があるんですよね。

そこをすっ飛ばして、「一元的に構築するわけではない」「赤字で明記をしております」と釈明しているわけですけれども、私、思うに、これ、データフォーマットを決めるだけだとデジタル庁は言ってる。自分たちがコントローラーやるわけじゃないと。規格化するだけで、あとは各自治体でやってください。半ば強制的にですかね? 促すわけですよね。責任だけ現場に置いてですね。でも全体を動かしているわけでしょお? 今まで紙で書いてあっただけの情報までデータ化するっていう話ですからね。それこそが「データの一元化」だと思うんですよ。この「一元化」っていうのは、データがどこにあるかっていう話じゃなくて、同じ規格でデータ項目化して、一律に評価ができるようになるっていうこと。それこそが、教育データの一元化なんですよね。だから「一元化しない」って言われても、「いや一元化ですよ、これは。」って言い返さないといけない。どうです?

鈴木:サーバーが一個のセンターに集中してあることを一元管理と言っているんですかね。物理的にサーバーが分散していても統一IDでつながっていれば一元管理なんですけどもね。

高木:そうそう。それどころか、実際クラウドで同じところにあったりしますけどね。

山本:あっはっは(笑)

板倉:だからマイナンバーで言えばね、マイナンバーは全ての利用、全ての連携が、マイナンバー法の別表で書いてあって(マイナンバー法別表第2)、連携を一回でもするのは、全部情報提供ネットワークシステムを経由して(同21条、23条)。そのログは、マイナポータルで見られますよ(同31条参照)っていう。こういうエクスキューズまでつけて、やっと合憲なものとして許されとるわけですよ。そこは教育データロードマップには何も書いてないですよね。

だから、教育データを同じフォーマットにして、他の個人データと同じように、(公的部門で許される)目的内外部提供などの自由な判断で、割と自由にできますとなったら、マイナンバー法が用意しているような制度的担保の半分の担保もないまま進んでしまうわけですよ。それは、いや、そこまで自由じゃないでしょうというのがある。で、近いなと思ったのが、監視カメラがマーケティングカメラになる時に、顔識別情報をID代わりにしてどんどん追跡できるんじゃないかってところから議論が始まったわけですよ。監視カメラっていうのは昔は、VHSの3倍だと6時間までしかビデオテープは録画できない、6時間経ったら消えていくというような話を前提にやってたんですね。

一方、教育データというのは、担任の先生と馬が合わなくて、通知票に変なことを書かれてもまあまあね、1~2年経てば担任の先生も変わるし、塾に行けば違う見方をしてくれる。違うペルソナをそれぞれに持って、子ども側でもそれなりに折り合いを付けて居場所を見つけて、生きて行くんだというようなことを大前提として、おそらくやってたんですよ。それが小学校3年生のときの先生に超嫌われた結果、大学に入っても、就職になっても、こいつ1回超×つけられてるみたいなのが、永久に残ったら地獄じゃないですか。

医療データとは違います。医療というのはだいたい亡くなる前の何年間かに集中的にお世話になる。その結果、医療データも亡くなる前の何年かに溜まるんでしょう。医療データは,誤解を恐れずいえば,亡くなる方のデータを使わせてもらうわけです。

でもね、教育データはね。これから生きていく子たちのデータなわけですよ。より一層、スティグマにならないように細心の注意が必要です。医療データは、多くは亡くなる前の方や、亡くなった方に、お願いします、今後の医療の発展のために使わせてください、という話じゃないですか。それとやっぱり全然違いますよね。子どもが今後生きていく80年、どうやってそれを使うつもりなのか。本当に腹を決めて構想出さないと、みんな納得しないですよね。それがなんとなくの反対運動になってるんだと思いますよ。

高木:うん、そうですよね。

鈴木:本来は国家百年の計ですからね。その割に議論が軽いよなぁ。

高木:それを「一元化」って言ってると思うんですよね。紙に書いてあったものをデータ項目化するってことですよね。

鈴木:見え方が変わると、また同じ論点の議論を無駄に繰り返しますよね。この間やった信用スコアリング問題でも、それって人間スコアリングじゃないのって議論しましたよね。それからマイナンバー制度前夜も共通番号どうするという話しを散々やってきた。現象が変わっているだけで同じ問題が問われているのに、またリセットしてやるのかというところがある。まぁそこの有識者はいわばお受験教育のいわば勝利者だろうと。それでそれなら、そこの教育データこそとって分析したいゎみたいな。同じ奴らが同じ間違いを繰り返し、政府レベルでやるっていうのは、こういう選良を育成し、登用する日本のシステム自体が問われてんだっていう話がこの教育論の根底にあるのではないでしょうか(笑)。

高木:同じ奴らなんですか?

鈴木:知らんけど。

高木:あ、そう(笑)。

鈴木:まあ我々から見れば同じ奴らですよ。あの、大航海プロジェクトの頃から同じ論点をぐるぐるぐるぐるやりやがってみたいな。同じ穴に何度も落ちやがってみたいな。

高木:我々はずっとちゃんと言ってるんですけどね。

鈴木:いや、我々が外れ値でね、あの粗暴で失礼なプライバシーフリークな人たちですから普通は敬遠しますよ。でも、こういう外れ値をどう生かしていくかっていうのも、今回の教育データ利活用の話しにないとダメじゃないですかね。一点集中で利口だけど、あとは馬鹿でダメな人達。これをたくさん養成するのはまずいですが、社会の生存戦略として一定数は社会に放ちたいじゃないですか。だったら、外れ値の話しも聞けよって感じですよね。

高木:山本さんなんかありますか? いいですか?

山本:どうぞ進めてください、お願いします。

鈴木:そうそう。山本一郎さんも過去の行状のあることないことをとりあげられて、いまだに一部マニアから批判され続けたりしている。ある意味で、過去のデータが一生つきまとう人間スコアリングも同じようなことになりますよね。

しかし、日本の安全保障の視点から中国共産党を批判しているくせに、IT政策になるととたんに発想や手法が中共と一緒ってどういうことですかね。欧米流の人権保障の側にいるのに政策の中味はなぜに中共に寄っていくのかっていうね。顔識別システムの安易な導入といいね。頭の根幹が狂っている人がなぜか政府委員の側に入ってしまうあたりを是正するための教育論がしたいですね。こういうところを山本さんがばっさり斬り込んでくれているんですよね。黒い山本さんも白い山本さんも、ネズミをとる山本さんはいい山本さんなんですよ。やっぱり中国から学ぶべきことは多いですよね。

山本:結局、特定の人がどういう人物なのかを、ずっと過去にさかのぼって、子どものころや、その家庭の状況まで知ることもできる仕組みを作りたいでしょう。どういう家庭環境の子どもが、いかなる成長をし、進学就業して収入を得ているかをずっと追跡したいわけですから。もちろん、いまの教育データ議論のスコープでは自治体ごときでは当然無理筋で、あとそれの弊害を議論していかなきゃいけません。当然それはプライバシーそのものですから慎重に議論をするべきパートです。ただ、その議論が全くないまま、シームレスにいつまでもポータブルに教育データとして持っていきますよ、場合によっては高校大学卒業後の納税データまで連結しますよみたいなことは研究倫理的にも法的にも行政の枠組みとしての教育データ利活用でできるものではありません。また、いつでもどこでも誰でも教育データが利活用できるようになりますみたいになってしまうとそれはまた全然違った話になってくるので、そこはもう一回その整理し直すことがあるんじゃないかなと思いますけどね。

高木:ではここで、先ほどの「Q3」。「個人の教育データが業種や民間事業者に利活用されやすくなるのですか?」とありますが。

デジタル庁「教育データ利活用ロードマップに関するQ&A」(2022年1月17日)1頁

で、何と答えているかというと、「ロードマップが目指しているのは、学校や自治体間でばらばらの記載方式になっているデータの形式を揃えるなどの標準化をすることで、関係機関間での技術的な相互運用性を確保し、利活用を容易にするということであり、そうした利活用は、個人情報保護のルールにのっとって行われるということは言うまでもありません。」と言っている。ここもまた太字になってますね。下線も付けてダブルで強調。「言うまでもありません」ムキーッ!太字にしたんだから読めよバーカ!てとこでしょうか。

その個人情報保護のルールに従っていればOKっていうのがね、もうダメなんですけど、その話は後でまたやりますが、日本の個人情報保護法っていうのは、どんなデータを使っていいかっていうことについて、何も言ってないんですよね。利用目的を特定して利用するっていうだけ。終わったら消去するようにっていう努力義務がある程度なんですよ。

鈴木:こうやって形式的手続き的な規律を遵守せよという程度のことしか言わないし、個人データ保護の本質や、個人情報保護法の法目的も議論していない。

そうした問題点を言おうにも、誰に言えばいいかわからない。マイナンバーの時は、役所は、財務省・国税庁に厚労省と総務省の自治と多かったですが、官邸だと担当の参与の先生、役人は某審議官と司令塔は明確でした。議連の先生も顔が見えていました。ところが教育データ関連の政策は、デジタル庁は、我々はシステムまわりを担当するのが仕事ですと言ってる感じ。そこの現場の大将が組織のコンセプトをどう言っているかよくわからない。霞ヶ関のITベンダーという立ち位置なんですかね。じゃか発注者のユーザは、政策の主体、司令塔は誰なのかってことですよ。そこが立ってないんですよね。文科省なのかと思えば、経産省と総務省とデジタル庁と、今度は新設される子ども家庭庁まで出てくるし、市区町村の教育委員会まで登場する。もう船頭多すぎですよ。政策の責任者がしっかりしない。個人データにおいては、コントローラーがわからない。出発点にも立ってないだろうと。その上、現場責任者もすぐに異動してしまうというね……。

板倉:権限は現時点で整理できていないのならしょうがないのかもしれないですけど、コントローラーはここにしたらどうかっていうところまではデジタル庁側で考察してもいいのかなと思いますけどね。ここがコントローラーになると、こういう問題がある。ここがコントローラーになんとこういう問題があるという、そこはもう一歩、やってほしいですね。

高木:こんな図がありまして。我々はアーキテクチャーを設計しているのだとか言うんですよ。これがアーキテクチャ(笑)だそうですよ?

デジタル庁「教育データ利活用ロードマップに関するQ&A」(2022年1月17日)8頁

板倉:でもね、ここはね、自治体とか学校って書いてあるじゃないですか。これね。自治体っていうのは、おそらく首長部局(県知事、市長等)のことが言いたいんだと思いますけど、高校はおおむね県ですよね。小、中学校までは大体、市区町村でしょ。学校っていうのは個人情報保護法制的には学校じゃなくて、「教育委員会」になります。「家庭」っていうのもね。誰が同意権者かっていうところ、なんとなく親だと思ってるから「家庭」って書いてあるんだと思うんですけど、そこの根本の議論は全くやってないんです。そこはほんと足りないですね。

鈴木:あと規律移行法人と関係ないでしょ?ここだと。大学じゃないから。

板倉:大学の付属だけ規律移行法人なんです。

鈴木:ああ、なるほど。大学の付属学校があるか。

板倉:筑波大学附属とかね……まあ余計なこと言うのやめよう(笑)。千葉大学附属とかね。そういうのは規律移行法人になりますけど、国公立の普通の学校は行政機関ベース(個人情報保護法5章)ですね。

鈴木:じゃあ、今度は3個問題になりますね(笑)。①民間部門の学校と、②公的部門の学校と、③規律移行法人の学校とルールが3つになる。

板倉:バラバラですよ、学校は統一しなかったですからね。研究、病院、大学だけですから。

高木:その話は置いといてですね。

鈴木:はいはい。

山本:ここの資料の11ページに、どこに何の情報を持つのかというシートがあるんですが、これがわかりにくくてですね。機関間の、この赤字のところ、「個人情報等の連携は法令に基づく場合を除き、原則として本人の同意により提供」っていうのが明記されてるんですね。

デジタル庁「教育データ利活用ロードマップに関するQ&A」(2022年1月17日)11頁

その次に、「データの蓄積及び流通に必要な要素(将来の教育データ流通における論点)」というところで、関係者が、各々、別のコントローラで持っているかのような表があるんです。「データの蓄積および流通に必要な要素」っていうのは出ていて、そこにですね、「関係者別の教育データ利用パターン整理」っていうのがあるんですけれども、ここの中で、「関係者」は「校務支援システム事業者」、「学校設置者」、「学校・教員」、「児童生徒」、「学習塾等」、「教材会社」、アプリ制作会社ですね、あと、「学校以外の公的機関」、「病院等教育外設備」っていう、そういう整理になってます。各々が独立した情報元になるという前提で組まれていると思うんですけれども、下に「関係者別の教育データ保存先整理」っていうのがあります。

デジタル庁「教育データ利活用ロードマップに関するQ&A」(2022年1月17日)7頁

これも何がどうなって、こういうその整理になったのかっていうのは、かなりとりまとめに苦労されたんだと思うんですけれども、見ての通り、その学校設置者のデータストレージ、例えばクラウド事業者も含めて保管先はプロセッサーですねと言わんばかりの内容になってる。で、ここの中でその丸が付いているのが併記されてるんですね。例えば、児童生徒がその教材情報の学校教育、民間教育をデータ持ってます。じゃあ、誰が学校教育のデータを持つのかというと、学校設置者が持っている、学校・教員も持ってる、生徒児童も持っている、教材会社が持っているって話になります。

その後、誰が主体的にこのデータを扱うことができるのかっていうところに関して、現段階では、誰も何も明示をしていないわけです。データ保持の期限も定められていない。有識者会議の中で出ているまとめの中に明示されていないので、今に至るまでそこら辺を明記されてないままなんだということになります。

唯一「校務情報」に関しては、システム事業者と学校設置者と学校・教員、学校の中で閉じたところでコントロールが持てるっていうところは意味はあると思うんですけども、それ以外のことに関して、おそらく現段階でも整理は終わってないのかなと思います。

そうなると、むしろその教育ベンダーさんの側が、2つのタイプのことになると思うんです。1つは、怖いので民間の教育ベンダーは個人情報を持たないようにしようということになるか、もう1つは、何か別の目的をもって教育ベンダーは積極的に個人情報を持とうと思うか。個人情報はリスクだから持ちたくないと思うか、個人情報はカネを生むデータ群だと思うか、このどちらかになるとでしょう。なので、整理をする中で、個人情報保護に基づきっていうような形で、今回Q&Aで言ってしまっていることに関しては、個人情報保護法に基づいてでは、多分解決しないってことを、どこかで彼らも理解して、そこに対する軌道修正を図ってくれないと、ちゃんとした着地にはならないんだろうなという風に思うんです。

個々人は選別されます

高木 じゃあ、ちょっとそのへん、話を進めて、また戻ってきましょうかね。次は「Q4」です。

デジタル庁「教育データ利活用ロードマップに関するQ&A」(2022年1月17日)1頁

高木:実はここが一番大事なところなわけですよ。質問は「本人が望んでいない内心がデータによって可視化されたり、データによって個々人が選別されるようになるのではないですか?」というのですけど。「選別」って言ってますね。

鈴木:なんか影響が出てますね、高木説のね。

高木:どうでしょうね?ええ。で、回答がですね……

板倉:この回答は嘘です。学校っていうのはね、もちろん生徒をふるい分けるのが仕事じゃないですか(笑)。

高木:あ、はは(笑)

板倉:ふるい分けるというと語弊があるかもしれませんが、成績つけて、この子は推薦に出すとか、しますよね。そういう判断に使わないんですか?って話ですよね。

いや、使わないっていうのも、ひとつのやり方なんですよ。ミニマムな教育データの利活用は、例えばみんなに学校で配られているタブレットの習熟度のデータ。これを自由に塾でも使えるようにします。これだけやるんだったらいいですよ。いいけど、そんな教育ロードマップっていうほどの話じゃないですよね。単なる習熟データを横流通させるようにして、自習が効率化しますってだけじゃないですか。違うんですよ。学校っていうのは、選別するんですよ。してるじゃないですか。内申書書くんだし。上から順番に点数つけるんでしょ?それを適正にやらなきゃいけないという話なんだから「行いません」は嘘です。これは欺瞞。

高木:そうね。「教育データを利活用してふるい分けを行ったりしません」と言ってるけども、いやいや、個別最適化するって書いてあるじゃないですか。個別化最適化ってことはふるい分け、選別するってことですよ。

鈴木:データベースがまさにね、分類したり、選別したりが仕事ですから。データベース使って、入試から学務から普段からいろいろ業務をやってるじゃないかって話ですよね。成績をつけたり順番つけたりね。個別最適化ならなおさら使いますよね。わかってないですよね。

山本:この最初にある、「悪意あるデータ利活用が行われないよう」の「悪意」って何だって話ですね。

高木:誰もそんなこと言ってないですよね。

山本:悪意があろうがなかろうがふるい分けるわけじゃないですか?利活用するっていうことは。

鈴木:実際ね、こういう教育現場ってね。すべての人が基本的に善意なんですよね。ある意味ね、善意がもたらす悪行を問題にしているわけですよ。善意悪意、法律用語のそれとは違いますけれども、ここでは主観的には、関係者は倫理的に善なるものとして取り組まれている。それが、無自覚に悪行になってしまうっていうところをどう法が規律するか。個人情報保護法を守ると言ってるのであれば、例えば、利用目的の制限について、適正な利用目的ってなんですか?っていうふうに問いかける必要がありますが、その前提として、個人データで選別すると、そこは自覚して言っていただかないと。

高木:そうそう、選別するんだけど、それが妥当かどうかってことが問題なんですよね。

鈴木:単に個人情報保護法は当然に守ります。それが前提ですと強調するだけではダメで、適法かつ妥当な教育データの処理でるあることをどう論証していくのか。個人情報保護法の義務規定ごとにどういう趣旨でその適法性を評価するのかをしっかりと管理側がわかってますということをアピールしなかったら、言葉遊びで終わりになります。結局、悪いようにしないからですよ。あなたのためだからで、悪行をなすことになるんですよ。

何が問題でなく、何が問題か

高木:ちょっと前に、リクナビ事件っていうのがありましたね。あれはどういう事件だったかっていうと、就活生がウェブサイトの閲覧をしていると、その閲覧履歴のデータによって、内定を辞退する可能性を推定されたという事案ですね。過去の就活生の閲覧履歴と内定辞退の実績を機械学習にかけることによって、こういう閲覧傾向の人はこの会社は辞退するかもねっていう、そういうことが昨今できるようになってきちゃったと。

それの何が問題なの?って話は、あの時たくさん言われました。同意なくやったのガーとか、そういうことではなくてですね、その時に私が言ってたのはですね、不当に評価されることは避けられないだろうということです。確かに、機械学習にかけると、大きな単位では、統計的には正しいのかもしれないけれども、個別の一人ひとりにとっては、なんかよくわかんない原因でどこ行っても落とされるっていうような、どうせお前は辞退するんだろうって思われちゃうみたいなことが起きるっていうか、防げないんですよってことを、あの時、私は「マイクロ差別」っていう言葉を発明して言いました。

どういうことかっていうと、たとえば男女差別とかだったらですね、誰でもわかる概念ですね。メジャーな差別、人種差別とか、いろいろあります。そういうのに限られず、この機械学習を使ってデータで人を評価していくと、よく見えないミクロな、名前もないようなマイナーな差別、根拠のない差別っていうのが起きかねないと。しかもその業者が1社とか2社とか、寡占的になっていると、どこ行っても同じように評価されちゃう。不利に評価されちゃう人はもう逃げ場がないわけですよ。教育データではそういうのをどう考えているんですか?それを解決しないで、本当にこれやるんですか?っていうのが、ここで問われていると思うんですよね。

このQ&Aでは多分、「選別」を何か独特の狭い意味で捉えていると思うんですよね。どういうのでしょうか、昔のナチがやったような、そういう選別を考えているんでしょうかね。べつにそういうのに限らず、学習の最適化のために、「あなたにはこういう教材が向いてますよ」っていうリコメンドするだけでも、選別ですよ。誘導している。それが当たっているのか外れているのか、それは介入ですよね。研究には観察研究と介入研究ってありますけど、教育データで児童生徒に介入していくわけですよ。その推定が正しかったのかどうかっていうのは、誰が責任持つんだっていうことになってきますよね。そういうことは何も考えてませんと自白しちゃってるQ&Aですよねこれ。

鈴木:これね。先ほどの目的のところにちょっと気になるフレーズがあったんですけど、Q1の目的のところに教員にとって課題のある児童の発見みたいなこと書いてあったんですね。「教員にとって」っていうのちょっと引っかかったんですけど。これ「生徒本人にとって」で一貫すべきなんじゃないですかね。

これ、「教員にとっては課題のある児童生徒早期発見したり」っていうのは、パターナリスティックにやるわけじゃないですか。教員側にとって、あ、この子助けなきゃダメだなっていう子を、目視だけでは発見できないか、見落とすことが多いけども、データ分析の結果で教えてもらえて、対処ができる。この「課題のある」っていうのも多義的な言葉で、チューリングのような人があたるかもしれないですよね。チューリングはコミュニケーション能力は極度に悪かったようですから。でも、数学的才能が天才的だったわけでしょう。ギフテッドを発見するのか、落ちこぼれを発見するのか、「課題のある」っていうのはいろんな意味がありますし、それをどう理解するかも多様ですし、その対応のあり方もいろいろです。しかし、「教員にとって」が基準なんですよね?

この表現だと、取得したデータはどう使われるのですかね。目的が確定しなければ取得するデータの項目も定まらない。何やらわからないからこそ、関係ないものかどうか考えずにとにかくとれるものは何から何まで大量に多様に収集してデジタル化して機械学習すれば、おのずと知見が出てくるという、とんでもないことを言っている有識者もおられるようです。あなたのような、生徒をいきなり人体実験するようなマッドサイエンティストを育てないこともまた教育の目的なんです!っていうことが言いたいですね。研究者は全員、倫理研修やっているはずなんですけどね。

高木:そうですね(笑)。

板倉:ちなみにね、情報通信白書の令和2年版を見ると、各社がね、ビッグデータとって何してるかというのが出ているんです。アンケートが。マジョリティが何してるか知ってます?

山本:「眺めてる」。

板倉:そうそう(笑)。見てるんですよ。え、見てるの?って(笑)

高木:見てるだけ~(笑)

板倉:分析する能力が確立しているのか。パラメータがこうなっている子はそのうちこういう問題が出るかもしれない、という少なくとも査読論文を通るようなレベルの知見があるのかですよね。そういう知見が教育学に既にあって、もしかしたらそれをうまく実装できる、というレベルなら議論に値するわけですが、ただただ集めて眺めるんだったらそれは何?っていうことですよね。

鈴木:打率三割は強打者ですから、失敗を怖れず、宝の山のデータから、百と言わず、千に三つの発見でもいいので、ぜひがんばってデータ分析してくださいと言うと、だったら社会実装をさせろと、大量のデータがなければ有効な分析ができない、AI研究も利活用もできない、データ分析の本質を知らないと。本人からのフィードバックがないと検証しつつ進めることができないんだということをおっしゃるわけですが、それは個人情報保護法上も学術研究目的の例外規定があるので、まずはテストケースでやる分には、まったく問題はない。学術研究フェーズでモデル化してから、方法論のある程度の見通しをもってから、実効性や適法性を確認して、それを論証して説得してから社会実装に段階的に入ればいいんですよ。創薬だってそうやって開発しているわけですよ。

山本:ただ、補足をすると、教育データは子ども全員に関する悉皆データなんで、その悉皆データをどう利活用するかっていう観点からすると、何らかの利用目的の枠内でだけデータを外に切り出すっていうのは、非常に相性が悪いんですよ。これは教育データと、今回みたいな個人情報も、利用の観点からすると非常に、もともと相性の悪いものを整理していかなきゃいけないプロセスなので、非常にデリケートな利用手法を考えなきゃいけないんです。考えた結果、その実は、この法律足りないから制度上はちゃんと担保しなきゃいけないので例えば令和6年度の個人情報保護法で対応しようっていうようなところにたどり着くならいいんですけど、今そういう状況にはなってないですよね。

今回、なんで悉皆データを研究目的で利用しようって話になってるかっていうと、アメリカでの先行事例でWWCっていうのがあって、コクラン共同計画みたいな、公にリファレンスできるそのデータ群っていうのを用意しなきゃいけないんですけれども、教育経済学っていう非常に変わった感じの学問です。例えば65%の児童は教員に褒められてのびましたと。で、学級経営においては、子どもを褒めましょうみたいなことがメソッドとして出るわけです。全体としては子どもを誉めれば学級全体の成績が伸びるのであれば65%の子どもに達適合しているものなんだから、おそらく全体の成績が上がるはずだというフィードバックになるわけですよね。ただ、悉皆データなんで、子どもを預けている親の側からすると、我が子は褒めても別に伸びない性格を持つ残りの35%に入る可能性があって、これはこの学級では担保されないんですか?

そういった意味で言うと、エビデンスに基づいた教員の指導は、子どもに対して合理的な選別なのかどうかっていうことを非常に強く問われるわけですよね。65%の子どもたちにとって効果のある教育メソッドなのだから、そこの学校で採用しますよって時に、自分の子どもが65%が入らなかった時、どう担保するねんっていうところが本当は問われるべきだというふうに思います。日本の教育実践をやっている人たちは肌感でいまの教育データ議論でのエビデンスの有り様について戸惑っているはずで、ここが今、議論としてまるって落ちてるので怖いですよね。

高木:そうそう。

プライバシーの保護とか自己コントロール権とか本人同意とかではない

鈴木:そのあたり、どう担保するかっていうと、一応、個人情報保護法の法目的はプライバシーの保護ですっていう先生方いっぱいいらっしゃいます。じゃあプライバシーって多義的なんで、もう少し詳しく言ってくれませんか?っていうと、自己情報コントロール権ですっていうのが多いですよね。そうすると、やっぱりこれも武雄図書館の頃からずっとつまっちゃうと本人同意って言いますよね。

山本:そうですね。

鈴木:で、理論的根拠は、自己情報コントロール権って言いますけども。その説明だと個人情報保護法の条文解釈としては矛盾するところがかなり出てきます。ここでは逐一言いませんけども。でもここでは仮にその理論に乗っかるとしてですね。その帰結として児童生徒の同意の意思表示が一番重要ということになりますよね。そこでNoって言った場合、どうなるの?っていうところが明確にされなきゃならないのに、Noって言った場合の児童生徒の教育プログラムっていうのですかね?Yesって言った人の教育システムと同等なものが用意されているの、どうなるのというところがわからない。Noっていった人の利用目的はどうなるの?ってところもわからない。母集団のデータから切り放たれた私たちはどういう教育を受けるのっていう、そこもなかったら、それは任意ってことにならないんですよね。

山本:そこは結果的に、経済産業省がやった未来の教室プロジェクトが優れていたのは、子どもは自分の考えで教育の現場から出ていいですと。あなたが向いてない教育を受けさせられる可能性があって、この担任であるならば、あなたは学校捨てていいですと、学校で学ばなくてもいいんですっていう方法を用意してあげようとしてるんですね。それは子どもの多様性の中では絶対必要なことなので、結果的に、未来の教室プロジェクトでやってることは、今やっている話からすると合目的なんです。

鈴木:えっ、でも学校捨ててどうするんですか?在宅学習でYouTuberにでもなるんですか? 

山本:子どもの多様性だっていう観点からすると、そういう選択した子ども達に対して道を認める、と。子どもの公教育の現場、例えばそのクラス分けをしないで担任おかないっていう教育のあり方がいいという児童に対して、じゃあ今通っている地区のこの学校ではなくて、こっちの学校に移動しますっていうことも自由にできるようにするべきだっていうのが、一つの論点として出てくるわけですよね。それは子どもの側に選択肢を与えてあげるという意味においては、自己決定しやすいっていうのもあると思うんですね。

鈴木:いやいやいや、あの山本さんの4人の元気なお子さんたちに自己決定権を与えたら何が起きるんですか?

山本:それは船乗りになると(笑)。 俺は開成東大には行かない、漁師になるんだと。

板倉:(笑)

鈴木:やっぱり、この人格の形成過程において児童生徒の自由と自己決定の範囲は成長に従い段階的に広がっていくということころもあるようにも思うので、今回義務教育を考えているとしたら、低学年にはちょっとしばくというか、体罰はあかんですが、少しは強制の契機も必要じゃないですか?

山本:そこは学校の機能の話になってくるんですね。で、この後の論点もありますけれども、子ども見守り事業ってあるんです。子ども見守り事業は自治体によって行われていて、子ども家庭庁の中で主幹業務になる話があるんですけども、ここでの観点は、実は、学校という機能が、デジタルによって、本当にこれ学校なのかっていう話になるんですよね。先ほど出ていたフィードバックのそのデータに関して、MEXCBTの中で出ているものは、あくまで教育指導要領のコードに則って出た、クイズ形式のものを、合っているか間違っているかを見ながら、習熟度判定して行きますよみたいなところが、ある意味根幹になってるんですね。もちろん、これはこれで必要なことではあるんです。ただ、だとするならば、学校教育の現場で学ぶよりも、塾に行ったほうがいいじゃないかとなりますね。じゃあ、子どもの成績が上がった理由は何なのかってことは、学校から収集したデータからは回答は引き出せないケースで、たくさん出てくるはずなんですよ。だって、学校の授業じゃなくて塾に行って勉強している子が成績伸びているんだとするならば、公教育でいくら教育データ取ったところで大したことは分からないじゃないですか。そうなったときに、本当に個別最適化された学びを公教育から出たデータだけでまあちゃんと着地までできるのかと言われると非常に厳しいだろうなと思うわけですよね。

結局、クソ教師問題から、学校の機能論で、学校は教えるだけじゃなくて、子どもの居場所を作って、地域の安全も支えて、さらに子どもの生活態度から家庭の問題まで入り込む可能性がやっぱりあるんで、そこはもうちょっと学校教育の現場で背負わせるものを、もうちょっと減らしてあげたほうがいいんじゃないかなとは思いますね。

鈴木:でも経産省だと学習塾や予備校所管しているっていう関係もあるのか知りませんが、経産省が口出すと、そこも巻き込みながらの政策に流れるし、実際、教育データは公教育以上にそこにいっぱいたまってるし有効な分析もなされている。でも高度成長期の画一教育モデルから脱して、個別最適化教育で次世代の扉を開くっていうことに多くが賛成しているのに、結局、大学入試に収れんしていく。いい大学に入る従来の教育に甘んじる結果になるよねと。むしろそれに長けている予備校の分析と教育にシフトする改革を目指すのかという、それでいいのですかと。そもそも論を聞きたくなりますよね。

山本:そこはまさに次の論点で出てくるところで、あのどうしましょう。次行きますか、どうしますか?

高木:もうね、進んでます、うん。

誰もわかってなかったOECDガイドラインの真髄

山本:個別の論点を挙げてます。これは、データの実装の部分だけじゃなくて、今回、いかに個人情報保護法がこの教育データの問題を解決するのに役立たずかっていう部分も、加味している部分なんですけれども、先にOECDの話をしたほうがいいんじゃないかと思います。そもそも収集した子どもの情報の利活用については、OECDガイドラインに抵触してるんじゃないかっていうところですよね。

「個人情報保護法に則って」っていうのは、国内的には適法なんだけれども、情報利用もその利用目的の適正性を担保しない以上は、合法であっても、実際の個人情報保護の観点からすると、大きく問題を起こす可能性がありますねと。で、これは個人情報保護法の再改正、絶対いるでしょうっていうような所まで行くんじゃないかというのが論点です。GDPR 5条1項(c)も準拠しないです。必要最小限度の情報収集にとどめなさいという方針からも、大きく逸脱するものです。もとが悉皆データなうえ、教育データ利活用ロードマップでは結局識別子(id)を振り、個別最適化された学びということで子ども本人や教師にフィードバックする前提ですから容易照合どころか可逆です。それを教育ビッグデータですと言っ、大量解析やりますとか、統計処理してフィードバックしますと言っても非常に問題であろうと強く言えるんだろうと思います。ここはぜひ、板倉先生にお話を伺いながら進めていくべき思うのと思うんですけど。

高木:ここは私からよろしいですか?

山本:あ、はい。高木先生お願いします。

高木:OECDガイドラインに違反している件は、冒頭でも予告しましたけど、え?どこが?って皆さん思ってらっしゃるでしょうから、ちょっと読んでみますね。

OECDガイドラインの2つ目の原則にあるんですが、「Data Quality Principle」、「データ内容の原則」などと訳されているんですけど、これが何を言ってるかというと、personal dataはその利用目的に対して「relevant」でなければならないと。「Personal data should be relevant to the purposes for which they are to be used」ってなってるんですね。これが日本語に訳されると「個人データはその利用目的に沿ったものであるべきであり」などとなるわけですが、どういう意味なのか、よくわかんないですよね。これが巷では、「データ最小化」と捉えられちゃって、漏えい対策みたいに受け止められているんですね。余計なものを持っていると漏えいするからリスク減らせみたいな。そういうことじゃないんだってことを今日、言いたいんですよ。

なんで今それを言い出すのかっていうと、実は私、この一年かけて、OECDガイドラインの立案経緯とかを調べてまして、内部文書も入手して読んだのですね。1970年代にどういう議論があってOECDガイドラインができたかを文献調査しました。いつも日本では、古典的プライバシーから現代的プライバシーへっていう説明で、ウェスティンからOECDガイドラインまでの間の10年ぐらいがスポーンと飛んでるんですよ。その10年間に何が議論されていたか、日本ではほぼ誰も紹介していなかった。そこが説明された海外文献を次々と発掘して読んでいたんです。

結局、何がどうだったかっていうと、実は、北欧とドイツ、あとフランスの専門家たちが集まって、OECDでずっと議論していたようで、それから、欧州評議会の自動処理に関する条約108号も同じメンバーが議論していて、ドイツ法が最初、あくまでも「file」を対象にしていたのだけども、OECDガイドラインには「file」のことが書いてないんですね。で、どうして書いてないかっていうこともわかったんですけど、定義は簡潔にした方がいいとか言われて削られた経緯があるんですよ。どんどん簡潔にされた結果、どういう趣旨で作ったものかがわかりにくくなっちゃった。その結果、日本では、OECDガイドラインが本当はどういうことを言っているのかわからないまま今まで来てしまった。

そういう背景を踏まえて、今回の件について言いたいのは、この「Personal data should be relevant to the purposes for ……」という基本原則の意味は、データ分析をして本人を評価するに際しては、目的に関連しているデータしか使っちゃダメって言ってるんですね。「関係ないデータを使うな」って言ってるんですよ。

で、その「関係ない」っていうのはどういうことなのか。いくら言葉だけ見てても意味わからないわけですけど、立案にかかわった人の論文を見ると、具体的に説明されていて、例えば、政府が所得税額を計算するのにコンピューターを使う際に、収入額とかを基に個人データ処理するのは「目的に関連している」データを用いた評価なんだけども、そこに日頃の生活の素行みたいなデータを入れて税額を計算したら、それはおかしいだろうってことになる。そのような場合のことを「関係ないデータを使っている」と言ってるわけです。

鈴木:ちょっと質問ですが、あのリクナビ事件だと自分の内定辞退率予測のために、先輩のサイト閲覧履歴その他のデータを使いましたよね。これはrelevantなデータを使ったことになるのかならないのか。

高木:あー、それはちょっと、話がややこしくなりますね。それは、傾向分析をするために、前年度の先輩のデータをAIにかけたっていう話で、それ自体はいいんですよ。統計的知見を得た段階は良い。それを今年度の就活生に当てはめるに際して、閲覧履歴に当てはめて、この人は内定辞退率が高い低いっていうわけですよね。その部分が関係ないデータ、relevantじゃないってことです。内定に関わる話に、ウェブの閲覧履歴なんて関係ないでしょうと。関係ない情報を使わないでくださいっていうことを主張する利益、拒否する利益がある。当時はWeb閲覧履歴なんてなかったですから、例に挙がってませんけど、そういう趣旨のことが書かれていると。

中国の信用スコアなんかはまさにそういう世界で、関係のない、relevantじゃない、普段の生活で評価されて、直接関係ないことに関連付けられると。これこそが1970年代に問題にされた出発点なんですね。データ保護制度が始まる出発点は最初にそこがあったと。そのことはしっかりとこの「データ内容の原則」のところに書いてあると。ところが日本法にはこれが一切ないんですよね。しかも誰もわかってない。ほとんどの先生わかってないでしょ? だから、「こういうことをやりたい」って言えば、「必要な」データってことになっちゃうわけですよね。今回の、教育データ使って分析したい、目的は「教育のため」とか「個別最適化のため」とかって言っちゃえば、あらゆるデータ使っていいっていうのが日本法なんですよ。それ、誰も止められないんですよ。

AI規則案で絶対やるなということに日本は足を突っ込みかけている?

板倉:最新の公的な文書としてはEUのAI規則案ですよ。EUのAI規則案で、4つの種類のAIだけは絶対禁止ってしてるんです(shall be prohibited,5条1項(a)-(d))。まだ欧州委員会が案として出してるだけで法律になってないですけど、4つの種類だけは絶対やめようっていう中に、「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをする」scoringという類型があります(5条1項(c))。コンテキストと関係がないっていうのが、今のrelevancyの現在地ですよ。そういうscoringはやめようっていうのが、そのAI規則案が4つだけ禁止している、絶対ダメなものひとつなんです。教育ログは、そこにちょっとね、一歩入りかけとるわけですよ。気をつけないといけない。欧州が絶対ダメって言ってるんですからね。それをね、ニコニコして入れたらね。お前らバカなのかってなるじゃないですか。だから欧州に従えという話ではないですが,絶対禁止になっている4つのところぐらいは見ながらやっぱやらないとまずいですよね。だって他に禁止されてるのって、サブリミナルで自殺に追い込むAIとかそんなやつですよ?(5条1項(a))。それと同等程度にダメだっていうふうに言ってるわけです。

鈴木:そこの感受性がないってあたりが、データ保護法制どうあるべきか、3年ごと見直しの方向性すら掴んでないってことでしょ?向かうべき先がないまま航海に乗り出してるわけですよ。3年ごとに。

高木:次の3年ごと見直し、何やるか全く見えませんけど、これをやるべきだと思いますね。これをやらずして、教育データの利活用を進めるんですか?っていうことですよ。これ、役人はですね、優秀な人は、こういうのをちゃんと察知して、最初から計画するんでしょうけど、平凡な役人さんだと個人情報保護法に従っておけば良いんでしょと思うじゃないですか。だったらちゃんと法律にしておかないと、この先危ういですよっていうことだと思うんですよね。

鈴木:公民一元化した個人情報保護法で、個人データの濫用的な利用を規律するってことになりましたよね。

高木:うーん、そこですけど、リクナビ問題を踏まえて令和2年改正でやることになってましたよね、不適正な利用を禁止すると。でも、できたものは何ですか?あれ。違法な行為、もしくは違法な行為を助長するような利用を禁止しただけになってませんでしたっけ?板倉先生?

板倉:ええと、題名は「不適正な利用の禁止」で、条文は「違法又は不当な行為を助長」ですね(個人情報保護法19条)。

高木:不適正ってなんでしたっけ?

板倉:不適正はね、よくわかんないんですよ(笑)。宇賀先生の、コンメンタールに「不当」について、稲葉先生が整理した論文(稲葉馨「行政法上の『不当』概念に関する覚書」行政法研究3号(2013年)7頁)が引用されてましたけど、行政法上の不適正,不当ってやっぱり凄い難しいですよね。

「不当」って何で一番出てくるかっていうと、行政不服審査ですね。行政不服審査って、違法じゃなくても「不当な処分」はひっくり返せるんですよ。個人情報保護法はとりあえずバスケットクローズ(包括条項)に入れたわけですが,「不当」のハードルは割と高いと,公定解釈はそれしか言ってないですよ(笑)。これはダメそうだなあっていうのが、ガイドラインの具体例に上がってますけど、どこまで使い勝手があるかはよくわかりませんが、ただ,利用停止請求の原因になってますからね(個人情報保護法35条1項)。裁判所で解釈される可能性はある。

高木:リクナビ事案が不適正って判断できるんですかね?利用停止請求できるんですか?

板倉:わかんないですけど、裁判所はね、あんまり個人情報保護法を知らないで、文面で不適正っぽいなと思ったら(笑)、ぱって止めちゃう可能性はあるかなと思います。被告の側がね、委員会がハードル高いって言ってるよって反論するでしょうけど、裁判所が一番重要視するのは法律の条文そのものですから、もしかしたら不適正,不当についての解釈が積み重なっていくかもしれんなと思っています。

鈴木:でもそれ、判例の形成を待つっていう論文と一緒で、放り投げじゃないですか。原理的なコンセプトをしっかり謳わなかったらね。法目的から導かなかったら、解釈論にならないでしょう?抽象的な文言を自由に広げたり狭めたりガイドライン行政でいかようにもというのでは、根拠条文として機能しているのかということになりますよ。そのガイドライン自体が適法かどうかも法解釈として、研究者も裁判所も評価できない。筋の軸がないということになりますよね、今のところ。

板倉:だからそこはね。relevancyとか、 proportionalityとか、そういう原理原則に違反するようなものは、やっぱり原則不適正だというふうに言われるんだよというぐらいは踏み込んで解釈していってもいいだろうと思いますけどね。

鈴木:それで1条の法目的に戻るわけですが、そこの個人の権利利益をプライバシー権っていう理解でいいのか。多義的な概念を、情報自己決定権や自己情報コントロール権と理解して、こうした個々の義務規定と体系的に整合的に説明できるのか。憲法の役割と、データ保護法制の役割の違いを踏まえた上で、憲法との接続を検討していくべきですよね。そこ整理していくのは今後の仕事ですよね。

なぜ、彼らは気づかなかったのか

高木:はい、それで調べたわけです。もう絶望的ですよ。とにかく、日本の憲法学が40年やってきたことは全部ピントが外れている。で、なんでかもわかりましたよ。さきほどの1970年代に立案していた先生方はちゃんと論文残してるんですけど、誰も読んでない。それ国内に紹介してないんです。

例えばJon Bingはこう言ってるんですよ。OECDガイドラインも含めたdata protectionっていうのは、decision orientedモデルだって。決定指向利益モデルだと言ってるんです。つまり、データによって人を評価して影響を及ぼすっていうこと=決定ですね。「決定」といっても、重い意味じゃなくて、何でも本人に影響があるものは全部入ると書いてありましたけど、そこを中心に対象のデータも定義しているし、法目的もこの利益モデルに沿ったものだっていうのが、学説としてあったんですね。それを日本で誰も紹介していなかった。

唯一近いことを言ってたのが、阪本昌成先生が1981年に出された学説で、自分の情報をコントロールする権利じゃなくて、自分が評価されることに対して防衛する権利であるというような、正確には……「プライヴァシーとは、自己について何らかの決定がなされるさいに、その決定の基礎として利用されうる個人情報が、適切なものであることに対してもつ個人の利益を中心的構成要素とする。」(季刊行政管理研究15号5頁)とおっしゃっていて、非常に似てますよね、今、私が言ったことと。

鈴木:そうですね。

高木:元ネタ論文が同じなんですよ(笑)。その海外のネタ論文を読んで、先生はそういうことを書かれてたんですけど、残念ながらそこから後が続かなかった。これ、データの話をしてるんですね。データ処理によって人を選別するっていう話をしているのに、阪本説はそうじゃなくて、人間対人間の人間関係の中で他人に自分が評価されるっていうことを問題にしちゃって話が進んで、その後ずっと佐藤幸治説と対立していくみたいな感じになっちゃって、この何十年、日本の憲法学はみんなそれしか見てないんで、データ保護の話をしてないんですよ。そのくせ彼らは、日本の個人情報保護法は自己情報コントロール権を実現したものとか言ってるんですけど、関係ない話なんで来ないで!って思うんですよね。

山本:フフフフフ(笑)

高木:日本の自己情報コントロール権説は個人情報保護法と関係がないんで、来ないでくださいと思います。そこはこれから論文に書いていきますけど、ちゃんとOECDガイドラインの元になった理念に基づいて、日本の個人情報保護法も立て直していかないといけない。その上で憲法学者もこれに付いて来てですね、データによって人が評価される選別されるっていうことが憲法上どこに位置づけられるのかっていうのを明らかにしてほしい。何年かかかると思いますけど、今回の教育データ事案はその立法事実となると思いますよ。

テクノクラートと法学者の衝突があったら是正できていたかもしれないこと

鈴木:いつも判例が出てから乗ってくるからね。やっぱりこれ構築しちゃった後だとね、手戻りするのも修正するのも大変なので、こうやって政策の構想が出たときに学として評価に入っていかなきゃならないと思うんですよね。情報化投資した後、完成した後は追認的な判断に流れていっちゃいますからね。

教育用IDは、マイナンバーでやらないことをやるわけですよ。税と社会保障と防災に限定して、共通番号をギリギリいろんなハードル、住基ネット最高裁合憲判例を横に置いて、その理由を見ながらそこで釘を刺されたハードルを越えるように番号法大綱をつくっていったわけですよ。それなのに、教育用IDを作って教育データを使って、課題ある生徒児童を探すために、児童福祉の問題にまで斬り込んでいこうとする。家庭が問題だろうって話するんですよね?山本さん。

高木:はいはい、その辺の事実関係を山本さんから解説していただく手はずになっています。

山本:はい。そもそも「教育データの利活用」で子ども一人ひとりに最適化された学びと、虐待防止のような児童福祉のためのデータアセットとは切り離して考えられるべきです。全然別物なので。

例えば、一連の教育データ利活用で悪名高き先進事例となった大阪府箕面市の子ども見守り事業では、自治体が市内の公立学校から出る教育データを取ってきて、納税状況などと同じダッシュボードで管理して、子どもの成績や気分の変遷を見ながらきめ細かい児童福祉を実現するとしている。しかし、教育学の基本として子どもの成績急落や生活態度の悪化の主な原因のひとつは確かに家庭にあるとはいえ、そのかなりの割合は両親の「離婚」や「病気」「失業」がマジョリティです。これこそ、個人に関する情報である子どもの教育データ利活用の観点からすれば、OECDが口を酸っぱく言っている必要最低限でrelevantなデータ活用なのかと言われると、当然否定されるべきものだと言えます。

鈴木:そういう話が出ている段階で、もう消火に入らないとダメで、教育データという名称のもとで、親の不行状を調査するんですよ。家庭環境調査が入ってくるわけですよ。そりゃ因果関係あるでしょ?親悪かったら子どももふてくされるでしょうと。それは経験的にわからないでもないが、その子どものためだからと言って、親が離婚しただの、収入が低いだの、職業がなんだのっていうのをデータ分析の対象にするのかと。もちろん子どもの保護はやらなきゃならない政策ですが、なにゆえ教育ログのGIGAスクール構想からの魔合体になるのか。それとこれとは別の問題なのに。これが正しい教育政策なのかっていうことを評価する必要性があるのに、かたや、ある偉い先生はデータはあるだけ取りまくれと。それから分析すればなんか知見が発見できると。お前は何を言っているのかという話ですよ。少し黙ってろ、偉い先生みたいな。

板倉:(笑)

高木:(笑)。ちょっといいですか、そこね、1985年の論文ですけどね、108号条約を作った欧州評議会の官僚の人が後日談で書いてるんですね。なぜそれを作ることになったかの話で、「1960年代には大規模な近代化、計画性、効率化を目指すテクノクラートによって、電子データバンクの大規模プロジェクトは、ビクトリア朝的な楽観主義で準備されていた」とか書いてあるわけですね(笑)。テクノクラート、技術官僚がですね、良かれと思って、なんかコンピューターが使えるようになってきたんで全部とりあえずデータを集めときゃよくね?みたいな感じでやり始めたところで、ボカーンと批判の声が噴出して、法学者がコンピューターを勉強して、それはいかんぞっていう議論を散々やったんだと。その後テクノクラートも理解して、制度に則ってやるように変わっていったっていう話が書いてあるんですけど、これ50年前の話ですよ(笑)。日本でそういうことなかったんですか?っていう。まあ、日本だと、グリーンカードとかありましたけど、データを集めて分析するっていうことまでは、多分事案としてはなかったんじゃないですかね。

そういう意味で、こういう悪い事案を日本は経験してきてないんですよ。経験してないだけに、何がヤバいかわからないまま、海外ではこういうことになってるんでと日本も法律は真似して作ったけどー、みたいな状況になってて、今ごろになって同じようなことが起きていると。50年経って。

思うに、今までそういうことが起きなかったのは、実は古い人たちは知ってたんじゃないですかね。昔のそういう議論をなんとなく見聞きしていて、そういうことは、やっちゃいけないことなんだと。当然のこととしてやらないで来たのに、今になってやり始めている。そこで「個人情報保護法に従っていればいいんでしょう?」ってことになってるわけですよ(笑)。つまり、出来損ないの個人情報保護法があるおかげで、かえって、やっちゃいけないことを、やっていいことだと錯覚してしまうんですね。

公益無罪?でいいのか

山本:今回、教育データを利活用すること自体は総論でいうと賛成なんです。賛成なんだけれども、適切な使い方っていうことに関して、あまりにも議論の積み重ねが少ないので、高木先生のご指摘されるようなところが積み残しされたまま、今、有効とみられるユースケースを取りまとめて、「公益無罪」のような形であらゆるデータを悉皆で集めてきて、リファレンスかけられるようにすれば、子どもの見守り事業など児童福祉にも自治体が使えるんじゃない?みたいなことで、こう、どんどんこう話が大きくなっていってますよね。

要は教育データをドライブして、中国の信用スコアリングサービスみたいなものに準ずるところまで行っちゃう可能性はやっぱり否定できないんですけど。さらに問題になるのは、シームレスにいろんな学術分野で、進級した進学した、もしくは転校した、色んな所でデータ使えるしましょうって非常に大事なことなんだけれども、時間を切らずにすべてのものができるようになってしまった。それはやっぱり中長期的に「就職活動をしてみたらその子は初等中等教育時代に親が離婚して母子家庭でしたとフラグを立てられる」というたぐいの壬申戸籍みたいな就職に影響することも出てくるだろうし、場合によっては、自分の結婚の時に話が出てくる可能性があるよみたいなことを皆さんが不安に思うのも仕方がないことなのかなって思うので、そこはもうちょっと、丁寧な整理が必要なんじゃないかなと思います。「公益無罪」になってしまっている時点で、一回ブレーキをきちんと踏まないと、大変な方向に行ってしまうんじゃないかなというのが、今回非常に重要なポイントなのかなと。

高木:事実関係の話がまだ足りなかったかな。子どもの見守り関係で、どういう情報をどこで取得して何を分析するという話。

鈴木:今、どこまで進捗してるんですか?なんかバタバタっと入りそうなんですか?

山本:いや、今もう出てるのは、子ども家庭庁の設立に関する議論の枠内で、これは自民党の中でも出てますし、他のところでも、審議会でやってるのがあるんですけれども、大坂府箕面市だけでなく先行事例として勝手に自治体が条例ベースで取り組んでしまった教育データ利活用による子ども見守り事業が奏功したということで、これをモデルケースにして横展開しましょうという流れにはなっています。実際、森田朗先生が座長となってガイドラインも策定され、議員が視察もしています。これもサイトに出てるので、プライバシーフリーク・カフェの皆様にも是非ご覧いただきたいんですけれども。ほとんど、学校からの持ち込みのデータも当然に参照できる前提で話が進んでいます。そもそも適法性を欠いた状態で勝手に箕面市など自治体が取り組んでしまった事例を、後から追いかけてデジタル庁がガイドラインを被せて適法な雰囲気にしてしまったので、さすがに手法的に問題ではないのかと強く懸念するところですが、現在文部科学省が策定している文部科学省教育データ標準がそのまま自治体の子ども見守り事業に流用されるようになると問題ではないかとも思います。

箕面市のデータは、いわゆる「公益無罪」によくありがちなものだと思います。ただ一方でよく考えてもあります。子どもの健全育成のために家庭にどうやって自治体が適切な形が入っていく時の根拠とするかということをよく考えた結果、こういうモデルになったんだろうと思うんです。ただ、やはりそれは教育データの利用目的の適正性ですね。利用目的の適正性からするとちょっと踏み込み過ぎで、関係のない家庭のデータまで全部持っていってデータベース化しダッシュボードで表示できるような形になってるんで、混ぜるな危険であるということは、早く考えておくべきではあります。

何より、教育データは無謬ではないどころか、多感な子どもは時期によって大きくその態度を変容させます。自我が芽生えて反抗期になったり、友だちと仲良くできたかどうかも含めてかなり可変です。そういう状況から読み取られたデータが、間違って教育データとして学校が登録してしまい、自治体に流れていって「この子どもは情緒が安定していない」ので問題だというスコアリングになり「要見守り」判定が出てしまうことだってあり得ます。しかも、それを子どもや保護者はそういう判定が出ていたことにさえ気づかずに行政から頼んでもいない見守りが発生したとしたら、どう訂正するのでしょうか。

大阪府箕面市「『子どもの貧困』から、未来に渡って子どもたちを救うのは『貧困の連鎖』を断ち切ること」9頁

それと合わせてなんですが、ダッシュボードに関するデータで、学校からの情報がどのような理由で提示されてるかっていうのは、子どもの生活に関する情報ですね。ほぼ全ての子どもに対してリファレンスかけられるような形で、データがその自治体に集約されていると。自治体の中で閉じている分には構わないんですけれども、それ以外のデータとリンクしてその提供されるとなると、問題なのかなというふうに思います。「生活状況調査結果」というの入っていて、あとは、「日常の行動」、「衣服などの状況」。これは分析されて選別されない利益からすると、やはり多少問題になってくるのかなと。ただ、現行法の個人情報保護法では違法ではないんだろうと思うんですよ。

その中で、低い自己肯定感とかですね、親の根拠に係るそのインジケーターとして孫引きされてますと。さすがに文部科学省の教育データ標準からは外れていると思いますが、そんなの子どもの性質・性格に起因するものなのか、家庭環境なのかなんて学校の担任教師が判定するべきものですらないじゃないですか。そういうデータとしての妥当性を余りきちんと検証しないまま、子ども見守り事業に教育データを使ってワンストップで児童福祉に役立てますよと一足飛びにやってしまうから問題なのではないかと思います。

百歩譲って、公教育のデータとしてこれらを習得してデータベース化することが適正だとしても、新設するこども家庭庁からの政策持ち上げでこういう利活用を本当にやるのかい?というのは気になります。この子が例えば、小学校時代、親が離婚して成績が急落した時に、そういうフラグが立ったものが、中学進学、高校進学の時にもこの子は、この時期にその成績が急落してねっていうデータを持つような形で、本当に良いのかっていうのは議論すべきなのかなっていうふうに思います。少なくとも、データ保持期間はフランスのように卒業後半年とか、そういう明示をさせないと制度的に何でもできてしまいます。不利な分析をされるために、過去の親の病状なんかが影響してくる可能性は否定出来ないので、それは切り離して考えてあげるべきなのかなというふうに思います。もっと言うと給食費とかどうするんだよっていう。

鈴木:でもこれ、教育データなんですか?

山本:教育データの扱いです(笑)。

鈴木:子ども家庭庁という構想がある中で、次世代の子どもを健全に育もうっていうのは、正しい目的ですけれども、文科省が所管するべき教育と、どこまで合体させるんですか?別の利用目的で取得したデータを他の利用目的と合体させて総合的でやるんだと。子どもの生命、身体の保護という例外だから許容せよということですかね。

かわいそうな子どものうちは手当するけど、20歳になって憎たらしくなってきたら、お前、育ち悪かったよねみたいなね。そういう形の逆転した評価になっていくわけですよ。成人した後はね。それ大学院の入試とか、就職とか、結婚市場でもついて回るんですかね。

山本:ある意味そういう危険性があるよっていうことは、やはり指摘されるべきだと思います。それに対して不安を持たれるご家庭が多いっていうのも、事実だと思います。他方で、学校の機能ってなんだっけ?っていう再定義しなきゃいけない。学校が、そういうデータを収集し得うる。そういう能力を持っていることに対してNGというのか、そもそも公益目的で共有して、自治体が子どもの見守り事業の中で利活用していくことがNGなのか、いろんなその論点があると思うんですが、そこがきちんと整理されてなくて、どこまでが、relevantのかっていうのは一回問われるべきなんだろうなと思います。そして、先にも述べましたが本来は教育データの利活用において「子どもの学習権をより充足させるための個別最適化された学びの実現」と「虐待家庭からの子ども保護のような児童福祉」とは本来まったく別のものであるべきです。

それなら、いま教育の現場で大きな問題になっている20万人ほどいる不登校児童をこの教育データはどう扱うのか。スポイルするんですか。子どもの健全育成は、学校に無事に通えている健全な子どもたちばかりではないんですよ。

鈴木:これは健全に育った人たちが考えると、こうなるんですよ。

山本:いや、学校という本来の機能が、大きくなってるんですよね。学校が担うべきものがfunction(機能)として社会的に大きくなってきている。先日も、うちの子どもが通っている小学校で、うちの生徒が地下鉄で優先席に座っていたという苦情があったので、ちゃんとしましょうというホームルームがあった。学校に通ってる子どもだってどうやって分かったかも判然としないのに、地域の子どもの風紀まで学校が幅広に指導しなければならないというのは本来異常です。そこが一連の議論の中で言うと、そこまで学校からのデータ提供しなければならないのかっていう話は、やっぱりあると思うんですよ。それは教育データの枠内で、「公益無罪」の考え方でその公益的に必要なことだから、学校は情報提供しなさいというような形で、まあ適切に関してはあまり議論されないまま来ちゃったというのが問題なのだろうなというふうに思いますよ。

鈴木:東京都や神奈川県あたりの市区町村をモデルに考えると。他のアンダー800くらいの自治体はどうするんですね。1万人以下の自治体も増えていきますから。制度設計を手伝う先生たちが関与する自治体は県庁所在地や政令市以上が多いのでしょうね。そこのイメージ感で制度設計して、政策の運営主体の多くを自治体に押しつけた場合、どうなるんでしょうね。2000個問題解消の主張の背景の中には、やっぱり国家がミニマムでやるべきところ。国家が請け負うべきところを見極めて、権限分配を再設計していくってところもありましたよね。

今回のワクチンの接種もそうだけど、最終的に住民と膝つき合わせるところ、アンカーになるのは自治体なので、そこに全部矛盾が押し付けられるっていう構図になりがちですよ。これは地方分権とも違う。自治体をさらに疲弊させるきっかけにもなるかなっていう感じがして心配ですね。全体設計と予算確保と分配とシステム化は国がしっかりやらないと、自治体の現状と機能の限界への目配りが充分なのかと思うけどね。

山本:いや、教育データと憲法という観点からすると、ちょっと濃いグレーなんじゃないかっていうのは思います。これは条例でやっちゃいけないことで、できれば選良がきちんと議論をして、法律を定めてもらったほうが、もし本当に活用するんだぞっていうことであれば適正であるし、あと学校の役割が非常に大きくなるので、教員に対する負担が大きくなるだろうというふうに思います。

鈴木:ブラックになるよ。

高木:山本さん、「内部でやっていればよく」と、さっきチラッと言ってましたよね。外部に出さなければって、それ、日本の個人情報保護法に囚われていると思うんですよね。

山本:それはそうかもしれません。それは今の個人情報保護法のルールで言えば、中でやるのは、適法性からすれば今の段階では適法ですよね。

高木:それじゃいかんっていう話なんですよ。

山本:いかんですよ。だから、その中でやるって、自治体の中で閉じてるからいいでしょうっていうのは、たぶん今回の条例が適法だと思っている箕面市も、大阪市も、質問状投げると、我々の中の行政の時の参照として出すものだっていう回答をもらうわけです。だから、最終的にはちゃんと法律ができるなり、誰かが適切なケースで最高裁まで争って「それはイカン」と言われるまで、自発的に個人情報保護の将来まで見越して自分から制御することはしないんじゃないかと現実面からすると思います。

やはり、自己コントロール権の話ではない

高木:さっき言ったように、関係ないデータで評価し決定することそれ自体が人権侵害だっていうのがdata protectionの考え方なので。このスライドちょっと見てくださいよ。これ、条例改正したそうですよ。しかも、この自治体の審査会に諮問したら、「条例改正せず解釈での運用も可能」っていう答申だったんですって。

大阪府箕面市「『子どもの貧困』から、未来に渡って子どもたちを救うのは『貧困の連鎖』を断ち切ること」17頁

山本:なわけないですよね。

高木:例外規定の「明らかに本人の利益になる場合」に当たるって、審査会が言ったんだそうです。それね、本人だけじゃないんですよ。問題のある人を発見するために全員のデータを使うんですよ、問題のない人らの。それが「明らかに本人の利益になる」ってこの審査会は言っちゃうわけですよ。頭沸いてるでしょ。OECDガイドラインからすれば何言ってんだっていう話ですよこれは。「関係ない」データで評価してるじゃないかと。

山本:はい。

高木:だから条例なんて地方に任せておけないんですよ。国で召し上げてルールを作っていくっていうのが、我々の構想なんですけど。

板倉:ちなみに、条例で審議会への諮問を経て目的外利用・提供するという条項は、残しておけないというのが2020年改正ですから、この条項は来年の4月以降は使えないですよね。

高木:うん。で、これにまた憲法学者が出てくると自己情報コントロール権だって言うわけですよね。つまり、関係ない人たちの生活情報までデータを移転することをですね、自分のコントロールから外れるっていう言い方をするんですけど、そうじゃないんですよ、問題の本質は。関係ないデータで人を評価するってこと自体が問題いなんです。

なんでダメかっていうと、萎縮っていうかね、こういう生活していると勝手にこういう評価をされて、なんかアラートが来るかもしれないって思うと、その行動が制限されますよね。そういう行動しないようにしようと。それがそもそものデータ保護の始まりなんですよ。データ保護って、「自由」っていう言葉と一緒に言われていて。特にフランスはそうですね。コンピューターによって勝手に評価されるということを一番嫌っていて、実際、1978年の最初のフランスのデータ保護法は、個人データによって評価されるシステムがある時には、すべての本人は、どのようなロジックで評価されているのかを開示請求できるっていう規定が3条にあったっていうくらいなんですよね。data protectionって初めっからそういうことだったんですよ。なのに日本の憲法学はそこを言って来なかったっていうこの惨状。

鈴木:これ、高木説が独自に言ってるだけかなという感じで見ていたら、金塚先生に先日のJILISシンポジウムで去年のフランスのコンセイユ・デタの判決を報告いただいたんですが、リセ市が市の小学校に児童を入れるか入れないかを自動体温測定装置で測ったんですね。これ自体がGDPRの個人データに該当して、GDPRの個々の義務規定に当てはめてって違反してるから撤去せよという判決が出た。まさにコロナ対策として日本じゃ当たり前にやっていてむしろ推奨されている体温測定に関して、フランスの最高裁に相当するコンセイユ・デタはダメだという。体温測定してディスプレイ上に発色して知らせるだけ、これが個人データの取得になるというのですよね。個人データ該当性もすごい広いわけですよ。

データベースに記録されなくても、データで本人を入れる入れないと選別する。本人の自由に影響を与えている段階で、個人データ該当性をしかと捉えるわけですよ。だから、まさに自由に影響するかどうかを見ている、法目的が何かっていうところが明確で、きっちり目的的に評価して対象データ該当性を判断していると、まさに高木説のデータによる人間の選別をしっかりとフランス最高裁のGDPR判決でとらえている。いや使うなと言ってるわけではなくて、使うなら義務を守れといっている判例なんです。そこは緊急だ、公益だ、善行だというところで当然の確認が流れてしまう、さらには何のためにやっているかも見失う日本と違うところです。また、この判決の理解も、体温は個人情報に該当するのか?みたいな考え方をするあたり、もう本質的に整合しないっていう世界観に日本は入ってますよね。

高木:私はですね、当初は、そういうことじゃないかなー?と思って言ってた程度だったんですが、去年一年かけて調べたら、やっぱりそうだったと文献が続々出て来ちゃったので、今、堂々と言ってるんです。

今、フランスの事例紹介いただきましたが、教育データ、フランスも実は最近やろうとしていたと、2016年にですね。そんなフランスでもですね、当初は無茶やる話が出てきたらしくて、反対している人たちの主張がありました。これを見ると、やはりデータによって評価するってこと自体を問題にしていますね。翻訳して読むと、「このプロジェクトは博愛だとか言ってるけど全くそうじゃない」っていうようなことが言われてます。「データですべてがわかるわけじゃないのに、数値化して人を評価するな」っていうようなことが言われていると。それを「プロファイリング」って言葉で呼ぶのは簡単なんですけど、プロファイリングの何が問題なのかっていうことまで言わないといけないんですよ。

鈴木:日本がダメなのは、プライバシー権って言えば答えになってると思うあたり、さらには自己情報コントロール権の理論的基礎が十分に検証尽くされていないのに、通説だって言い切っちゃうし、今や与野党の政党がデータ基本権でそういう考え方を採用しようとしている。機能しないだろう、社会実装できない理論だろうということが実感としてわかっていない。また欧米とずれていくんですよ。それやってると日米欧DFFTもダメになる。人権保障の国々が集まって、一定の安全保障まで含めてしっかり国を立て直そうという話といろんなところで不整合が起きてきますよ。安易ですよね。いつも手戻りばっかり。国家百年の計にあたって、これが百年もつのかと。どんな議論をしているんだと。教育データにしたって、ギフテッド探してんのか、ボトムアップ狙ってるのか?はっきりしろって話しですよ。はっきり言えよと。何をやるのか実にシンプルな話だろうがと。なんで言えないんだ馬鹿野郎と。言えないんならやるなって話ですよ。予算もないのに、もっと重要なことがあるんだろうと。まず欠食児童に飯食わせろみたいなね。もっとシンプルに重要なことからやれよと。デジタル化を目的化すんなよと。一番やっちゃダメなことだろうデジタル庁がっていうね。

高木:そうですよね。まあ、先生、これ後で文字になるんで。

鈴木:うん。

高木:気をつけてくださいね。

鈴木:いや、もう普段からこうなんで、文字にしますよ。

高木:時間も大分、あのオーバーしております。

それぞれのまとめ、次回の論点など

高木:そろそろまとめに入られないといけないので、各自、言い残したことを言いましょうかね。じゃあ、山本さんからどうぞ。

山本:かなり論点取り残したまま終わるので、非常に心残りです。特に、エビデンスに関しては、やはりもう一回見ないといけないなと思ってます。さらに今回、鈴木先生もはっきりおっしゃっていますが、アウトカムが不明瞭ですよね。これ何を目的として教育データ進めているのかっていう、アウトカムがはっきりしなかったら、多分収集するデータも何していいかわからないはずです。アウトカムも情報のコントローラーもわかんないうちから、デジタル庁は秋まで標準化のロードマップの中で作りますという風に言っていて、これもやはりちゃんと議論を積み上げないといけないと。最初に誰がコントローラーで、本人同意の原則で、子どもが本人同意なんてできないって最高裁も言ってるわけですから、そこは、やっぱりうまい具合の落としどころを真剣に考えるってことが必要なのかなと考えます。最終的には、高木先生もお話されましたけれど、OECDのガイドラインも準拠してないし、GDPRの最小限度の情報収集という観点からも逸脱しているので、「公益無罪」の考え方はあるけれども、やはり個人情報保護法の改正と、できれば新法か、もしくは既存法の改正が何かでも、このあたりのところがうまくカバーできるような法体系にしていくと、より良い形でその子ども公教育に預けられるんじゃないかというのが、一番の論点ですね。

あと、もうひとつ、今日言いそびれました。塾の要素、民間の規模は大きいです。アメリカでなぜ、教育データの利活用データベースがうまくいかなかったのか?これは結局、いくら公教育のところデータを取ってますっていっても、成績の高くなる子どもはみんな学校の勉強だけではとどまらず、塾に行くんですよ。親が教育熱心で、家庭学習ができる子どもほど、やはり成績が上がります。で、これを公教育のおかげで成績が上がったというふうに、みんな誤認するわけですよね。結果として、クソの役にも立たない教育メソッドみたいなのが次々と編み出されていくことになってですね。次々と試験実証されて、それが導入されて全部失敗したというところが、おそらく本来の経緯だろうと思うんですよ。で、それはやはり、教育で取れるデータに限りがあるんだよ。いくら悉皆データをとったとしてもダメなんだっていうことを、充分念頭に置いてですね。みんな塾通えと。

スタディサプリとかですね、おそらく成績を上げるためならとても有効なんだと思います。あと学習指導要綱のその行動の内容に応じた行動で、今CBT(コンピューターベストテスティング)になりますけれども、そこの中で本人が不得意としているものに関しては、みんな個別最適化された学び以前に、塾でやってるんだからというところでうまく整合性を取って政策立案のほうに生かしていただけばいいかなと。なので学習塾とか、もしかして予備校とか、スタディサプリとか、そういったものをうまく使いながら、政策を伸ばしていくことに対するメソッドを、公教育がどう取り込んで進んだらいいのか。それは言い方は適切ではないかもしれませんが、実質的に日本の公教育の現場が民間の教育ベンダーの下請けも同然になるんじゃないかと。子どもの教育データや学習ログの情報収集の拠点しかないんじゃないかっていうところは今一度、考えていくべきです。そして、高等教育、大学入試改革も踏まえた教育制度改革全体において、日本の社会が良くなったり、イノベーションを引き出せるような教育ログの利活用を考えていただければいいなというふうに思います。以上です。ありがとうございました。

高木:板倉先生どうでしょうか。

板倉:だいたい言いたいことは言いましたが、やっぱり、個人情報保護法上の同意等の行為について、誰ができるのかと話を真剣に考えないと、いかんですよ。それはね、教育で言えば、小さい子どもたち、若い人っていうことになるし、認知症の話で言えば、成年被後見人にまではならない、ある程度認知症が進んじゃった人とかどうするのかという論点ですね。個人情報保護法は、全部ほったらかしできちゃったんですよ。部分的に、研究したりはしますけど、もうちょっと腰入れてやらないといけないですね。GDPRのように、エイヤってって年齢で切るのでもいいですよ。切るのでもいいけど、財産法上の同意と違って、裁判例も出ないので,裁判例による発展も期待できないわけです。次の3年ごと見直しの時には脆弱な本人について、どこまで行ったら同意能力があるのかとか、代理をどうするのかっていうのをしっかり入れたほうがいいんじゃないかなと思いますね。幸いにして3年ごと見直しっていう、すごくいい制度があって(令和2年法律第44号附則10条)、必ずパッチを当てますから。課題として持っていただくと、教育だけの問題ではなくて、個人情報保護法制全体の問題として検討できるんじゃないかと。

教育はとにかくコントローラー決めないと進まんよというところですね。誰が腹決めてやるのか?コントローラーは別に教育委員会じゃなくてもいいんですよ。学校なら学校単位だって決めたっていいですけど、しかし誰がやるか決めないと進まないですよ。

高木:では、鈴木先生、さっきので言い終わりましたか?

鈴木:はい。あと、板倉先生の流れで言うと、同意は意思表示って本やガイドラインに書いてるけど、民法の概念を借用しているのか、意思表示って言ってるあたりが理論的におかしいでしょ?ってあたりは早く気付いた方がいいと思いますね。先般の情報法制学会でね。行政規制の免責ではないかっていう、ようやく真っ当な見解が報告されていて、その通りだよなと思って聴いておりました。情報法制研究11号に掲載されると聞いています。意思表示理論ではないってことになると、法律行為ではないっていうことですから、代理が素直に出てこない。しかもプライバシー権に属する情報に限らないのは明らかですから、どうなんですかね?人格権に包摂されるか、人格的権利利益にはなるんでしょうか、そのあたりの理論的な基礎を、もう少ししっかり学会の方でも議論して行きましょうということと、自己情報コントロール権のわりには直接書面取得では契約取得も入れてますからね。申込と承諾が合致していても、利用目的の明示で止めて同意を求めていませんからね、いや、それは産業界におもねってたんだっていう見解もあるようですけれども、いやいや、契約で取得してるから産業界においてはもうそこ承諾と書かれたって同意と書かれたってなんの痛痒もないわけです。それでも個人情報保護法は明示で止めているのはなぜなのか。ほかにも、いろいろ自己情報コントロール権で説明がつかないところが、なぜこんなにあるのかっていうのを、もう少しわきまえて、法目的をしっかり明確にしないと。

最後に言いたいのは、個人情報の定義って2つありますからね。まず基本は民間部門の個人情報の考え方がいかなるものかということに関して、共通基盤に立っていないと。無自覚に揺れている。個人情報の定義すら皆さんわかってないんですよ、2つあることをわかってないのに政策立案や企業法務でビジネスモデルづくりやってるんですよ。自治体の条例においてもね。そもそも法目的が曖昧でわからない。個人情報の定義の基本的考え方が2つあることを自覚していない。同意原則ではないことわからない。利用目的の制限原則なのに利用目的のコンセプトが不明瞭。Suica事件の頃は匿名仮名がわからなかったけどもわからないこともわからなかった。現状もいくつかの論点があることもわかっていない。これで個人情報を遵守して教育データを扱うにせよ、その他一般のビジネスモデルを作るにせよ無理があるでしょう。そこはしっかり解説するからちょっとJILISに来ていっしょに勉強会やりましょうよといいたいですね。自治体や企業にはね。

高木:はい(笑)、ちょっと今、説明が足りないところがあったような気がしますので、補足しておきますね。定義のところはですね、宇賀先生は情報公開法の裏返しのような定義をおっしゃっていて、それ違うんですよね。さっきお話ししたように、1970年代からあるdata protectionっていうのは、人を評価する上で何をどう使うかっていう話なので、情報公開と全く違うんですよ。あっちの人たちは「情報公開と個人情報保護は車の両輪」とか言うんですけど、両輪じゃないんで、来ないでほしいです。我々は上に飛ぼうとしているのに、地べたを這ってるって感じですよ。

で、今も面白いことに、いつもの聴講者の方からピント外れなコメントいただきまして、ちょっと取り上げます。「データ内容について何も言ってないって言うけど、要配慮とかあるじゃないですか。学習データ要配慮じゃないんですか?」みたいなご指摘ですけど、そうじゃないんですよ。情報自体が要配慮かどうかじゃないんですよ。関係ないデータで評価しちゃいけないっていうのがdata protectionなので、データの種類の問題じゃないんですね。これはOECDガイドラインの立案過程でも、1970年代のドイツ法のコンメンタールでも言われていたことでした。これがまあ、今までずっと日本の学説が間違えてきたこと、そのまんまのご指摘ですね。

というわけで、終わりますけれども、以上のようにですね、今日はいろいろな論点が出て、教育データの問題の本質がどこにあるかっていうことは少しおわかりいただけたんじゃないかなと思います。私もいくつか新しいことを言いましたけど、ちゃんと論文に、文章にしていこうと思っていますので、もう少し時間かかりますけども。なんとか次の個人情報保護法3年ごと見直しに向けて、しっかりと制度を作っていくことで、正しく教育データが使っていけるようになるはずです。

鈴木:そうですね。使っていくためにどうするかですね。やめろとは言ってないですからね。誤解しないでいただきたいですね。

高木:まとめです。ということをやっていこうと思っておりますので、是非これからも見てくださいね、っていうことで以上といたします。

(終わり)