結局、AIに与える情報が正しくなければ意味がない
故に、AIは危険だ!
って事?
元の情報ソースの正確性云々なら、提供先がAIだろうが人間だろうが同じなんですけど?
この年末年始、アルファ碁の最新版が世界ランキング上位の棋士を相次いで破り、六十連勝を飾った。驚異的な進歩を遂げている。
衝撃は、囲碁界だけではない。東京大は昨年八月、IBMのAI「ワトソン」が特殊な白血病を見抜き、治療に貢献したと発表した。ワトソンは大量の論文を読み、大量の医学データを解析できる。診断はもう、名医である。
IT企業や自動車メーカーなどは今、自動運転技術の開発を競っている。二〇二〇年代には完全自動化の車が実用化される。
現在は第三次のブームだという。特徴は、AIが自ら学習して賢くなる技術、ディープラーニングが確立したことだ。
課題も明らかになった。学習に使うデータの質だ。適切でなければ、予想外の結果を招く。
昨年、米IT大手のマイクロソフトは、ツイッターで一般の人と会話をしながら発達するAI「Tay(テイ)」の実験を試みた。テイはネット上で、不適切な受け答えを教え込まれた。そのため「ヒトラーは間違っていない」といった発言を繰り返すようになり、実験は中止になった。
データは正確で、大量で、デジタル形式で、インターネット経由で入手できることが望ましい。
残念ながら、日本は公的機関でも問題がある。経済産業省は昨年末、「繊維流通統計調査」で過去のデータを流用する不正があったと発表した。不正防止だけでなく、役所が収集した幅広い情報も可能な限り公開すべきである。
医療分野では、電子カルテの普及が遅れている。日本IBMは昨年、藤田保健衛生大などと糖尿病の共同研究を始めると発表した。
データの質は確保できるが、一大学病院では全体像は見えにくい。プライバシーを保護した上で、医療の向上に役立ててほしい。
同じように、AIを動かすのは技術者の仕事だが、課題の設定と結果の評価は経済などの専門知識がいる。わかりやすく伝えるには芸術的なセンスが求められる。人材育成も大きな課題である。