どうして人工知能(AI)はこんな結論を出したのか?――。自ら学習するAIは、人間が理解できない結論を出すケースがある。「ブラックボックス」と批判され、AIの課題の一つとされてきた。富士通は利用者が納得できる「説明可能なAI」を開発したと発表した。AIも説明責任を果たすようになるのだろうか。2016年にプロ棋士を圧倒した囲碁AI「アルファ碁」は「深層学習(ディープラーニング)」と呼ばれる技術を使

www.nikkei.com / 4ヶ月

この記事へのコメントはありません

appstore
googleplay
会員登録

会員登録して、もっと便利に利用しよう

  • 1.

    記事をストックできる
    気になる記事をピックして、いつでも読み返すことができます。
  • 2.

    新着ニュースをカスタマイズできます
    好きなニュースフィードをフォローすると、新着ニュースが受け取れます。