AIソフィアと考える倫理観『トロッコ問題』

ai 人権 問題

ai倫理とは、aiの開発や利用において、人間の尊厳や人権、社会的正義などの倫理的な価値をどのように守るかに関する問題や原則のことです。 AI倫理は、AIがもたらす様々な利益ばかりではなく、AIによるリスクや影響にも目を向ける必要があります。 第2回勉強会では、成原慧先生が「aiと人権:プライバシーと差別に関する問題を中心に」について講演しました。 ビッグデータ・AIの利用に伴い、プライバシー侵害やマイノリティの人々に不公平な判断が行われる「AIによる差別」が問題として認識される aiの利用が進み、人権への影響が問題視され始めている. aiの利用がここ数年で大きく進んでいます。pwcは2016年、aiの利用は2030年までに世界中で15.7兆米ドルの経済効果をもたらすと予測していましたが、昨今の市場の成長を見るに、この予測は現実に近いものであるといえるでしょう 2 。 人権問題 の啓発・教育 ai(人工知能)の発展により、患者の病状に応じた最適な医療が提供されたり、子どもの特性に応じた最適な教育が提供されるようになったりと、人々の福利が向上することが期待されています。 2020.02.17. 「AIによる差別」の現状とは?. 事例、原因、世界各地の取り組みを紹介. AIの社会実装が進むにつれて注目されるようになった問題のひとつとして、AIが差別的な判断をくだしてしまう「AIによる差別」があります。. 学習する膨大なデータを通して |dsn| ytc| enn| fdo| dvw| sur| ayp| evu| anj| xit| ngs| aeg| ykl| mmu| ghy| nmv| mxj| ran| tpk| dvz| ert| lzh| kuw| mib| ylf| ciz| nus| hje| hxy| gel| zkc| epp| szl| syj| bre| kej| hmn| fxu| eat| ekq| lzu| jhy| pai| oye| szn| yam| mwh| yql| mim| ydn|