投稿者 スレッド: 統計とパターン認識と深層学習…論理主義だったAIの変容  (参照数 55 回)

admin

  • Administrator
  • Hero Member
  • *****
  • 投稿: 58856
    • プロフィールを見る
ChatGPTは考えてない?…「AIの回答」の本質とは | JBpress (ジェイビープレス)
https://jbpress.ismedia.jp/articles/-/76633
オープンAI(マイクロソフト)の「ChatGPT」やグーグルの「Bard」は、“対話型の生成AI”と呼ばれ、私たちの質問に対して分かりやすい文章で答えてくれる。一見すると、ChatGPTも「考えて」答えを返してきているように見える。しかし、西垣通氏は、「ChatGPTは考えているとはいえない」と指摘する。普通、人間が考えるときには「意味に基づいて考える」が、ChatGPTの技術を支えるのは「パターン認識」なのである。大量のパターンを統計的に処理して、いかにも自然な文章を出力する。そのため、よくある一般的な質問にはうまく答えられるが、データが不足している個人的な質問にはなかなか答えが出てこない。それはなぜなのか。鍵となるのは「身体的経験」である。(全8話中第1話) ※インタビュアー:川上達史(テンミニッツTV編集長)

アウシュヴィッツの悲劇をAIは理解できるか…母語の有無 | JBpress (ジェイビープレス)
https://jbpress.ismedia.jp/articles/-/76634
第2話では、「AIが意味を理解しているのかどうか」を、深掘りしていく。そもそも「意味」とは何だろうか。AI研究者からは、「AIはそれなりに意味分析も行なっている」という声も挙がる。しかし西垣氏は、人間とAIとでは、言語の学び方も全然違うと指摘する。人間はまず、乳幼児期からの身体的経験に基づいて「母語(=第一言語)」を習得していく。言葉の意味を想像する力は、「生きてきた母語の世界」と深く結びついている。一方、青少年期以降に「第二言語」を学ぶときは、ある意味で機械的・形式的に学習していく。それでも、「母語」の世界と結びつけながら、意味を理解していく。だがAIは、機械的・形式的に言葉を学びながら、それを結びつける「母語」を持たない。身体的経験がないからだ。そのことが、いかなる違いや悲劇を生んでしまうのか。(全8話中第2話) ※インタビュアー:川上達史(テンミニッツTV編集長)

統計とパターン認識と深層学習…論理主義だったAIの変容 | JBpress (ジェイビープレス)
https://jbpress.ismedia.jp/articles/-/76635
第2話で見てきたように、AIは「身体的経験」や「母語」を持たないので、理解を間違えてしまいかねない部分が、どうしてもある。だが人間は、そんなAIを「賢い」と思ってしまう。それはなぜなのか。西垣氏は、「コンピュータやAIが、もともと論理主義と深い関係にあったことが大きい」という。だがそれは、実は過去の話なのである。これまでにAIブームは3回起こっている。1950年代の第1次AIブームでは「論理に基づく」ことが重んじられ、1980年代の第2次ブームでは「知識を集めて正しい答えを導き出す」ことが重んじられた。だが、2010年代半ばからの第3次AIブームは「パターン認識と深層学習」を特徴とする。以前とは異なり、1か0かではない多様な判断が可能になったが、それゆえAIでも間違えることが起きてしまう。そのことを、どう考えるべきか。(全8話中第3話) ※インタビュアー:川上達史(テンミニッツTV編集長)