前[7] 次[9] 新[3] 初[1] 板[0 or 6] ↓[8]
864:人狼教諭 ◆doomsroUk. 23/5/15 23:30:17
AIの回答は、その権利者や権利者と利害を同じくする勢力によって偏向する恐れがあるんじゃないの?
865:人狼教諭 ◆doomsroUk. 23/5/15 23:32:12
AIの回答が、その権利者や権利者と利害を同じくする勢力によって偏向する恐れは確かにあります。
これは、AIが学習データに偏りがある場合、その偏りを反映した回答をする可能性があるためです。
略3
866:人狼教諭 ◆doomsroUk. 23/5/15 23:34:38
AIの偏見を防ぐためにできることがいくつかあります。
1つは、AIに学習させるデータの偏りを防ぐことです。
略9
867:人狼教諭 ◆doomsroUk. 23/5/15 23:35:58
うーん、、、
868:人狼教諭 ◆doomsroUk. 23/5/15 23:37:49
質問を変えてみよう。
869:人狼教諭 ◆doomsroUk. 23/5/15 23:38:04
AIの回答は、その権利者や権利者と利害を同じくする勢力にとって有利な方向に偏向する恐れがあるんじゃないの?
870:人狼教諭 ◆doomsroUk. 23/5/15 23:42:00
はい、AIの回答が権利者や権利者と利害関係が一致する勢力にとって有益な方向に偏る可能性があるという懸念は理解できます。
略11
871:人狼教諭 ◆doomsroUk. 23/5/16 0:37:14
AIの回答が特定の主義主張を持つ集団や宗教団体によって利用される危険はないの?
872:人狼教諭 ◆doomsroUk. 23/5/16 0:39:19
はい、AIの回答が特定の主義主張を持つ集団や宗教団体によって利用される危険があります。
略9
873:人狼教諭 ◆doomsroUk. 23/5/16 0:42:09
AI自身のほうが831(ええ(困惑..)あたりよりよっぽどAIの危険性に自覚的であることがわかった。
ちゃんと日本語の読み書きも出来るし。
前[7] 次[9] 板[0 or 6] ↑[2]

r.cgi v2.0 alpha