Skip to main content

不完全な世界における公正なモデルの構築:AIにおけるバイアスへの対処

23 December 2021

データに基づく意思決定の際に、一般的なルールベースモデルから機械学習(ML)モデルに至るまで、人工知能(AI)がますます利用されるようになっています。MLモデルによる意思決定は、人間の意思決定に比べ、より優れ、より速く、より一貫性があるように思われます。しかしAIが私たちの生活の不可欠な要素になってきているため、潜在的にバイアスが入った不公正なモデルに対する懸念が高まっています。この問題に直面する多くの業界の一つが保険業界です。本稿では、バイアスを検出し、公正な機械学習モデルを構築する方法について論じます。


Daniël van Dam

Amsterdam Insurance and Financial Risk | Tel: 31686822397

Raymond van Es

Amsterdam Insurance and Financial Risk | Tel: 31 6 1133 4000

Jan Thiemen Postema

Amsterdam Insurance and Financial Risk | Tel: 31686855107

We’re here to help