人工知能研究家・清水亮 GPT以後「知識の集積地」としてのネット空間は汚染されていく。私たちはいつまでWikipediaを信用できるのか
「百科事典を作りたいんだけどさあ」
そういうと、Yは目を細めた。
「なんですか、それは。AIに関係してるんですか?」
「いや、この先、Wikipediaってますます信用ができなくなっていくと思うんだよね。もともとけっこういい加減な情報であふれている部分も多いんだけど、今後GPTみたいな大規模言語モデルでさらに間違った情報が増えていくから、あえて人間が編纂した百科事典が必要になってくると思うんだよ」
Wikipediaはたとえば関係者が編集することを許されていない。自分自身について間違った情報が書かれていても、修正することかできないのだ。
このルールによって、勘違いや誤読、もう古くなっている情報がそのまま放置されているケースもある。Wikipediaが登場したばかりの頃は全体の記事が新しかったのだが、長い年月が経って古い記事が誤った、または古い情報のままになっているケースが散見されるようになった。
2023年の5月現在、世の中には対話型の人工知能「ChatGPT」にまつわる話題が溢れている。
MicrosoftOfficeにGPTが搭載されるといったアナウンスが流れたり、SlackやNotionにもGPTと統合するプラグインが相次いで出現している。
GPTは便利だが、平気で間違った情報をさも本当のことのように語る欠陥がある。この欠陥はおそらく簡単には直らないし、何年かけても直らないと指摘する専門家もいる。
だがこの便利さは何者にも代えがたく、一年もしないうちに、ネットはGPTが出力した真偽不明の情報で溢れかえってしまうだろう。
そういうときにこそ、人間にしかつくれない百科事典のようなものが必要なのだ。