機械学習における公平性の議論は比較的最近の論点である。2016年からその論点における研究で急な増加があった[1]。この増加はある程度アメリカ合衆国の裁判所で累犯を予測するのに広く用いられる、 COMPASソフトウェアが、人種上のバイアスであること主張するところの、プロパブリカによる影響力のある報告とみなされる[2]。一つの研究の論点および議論は、機械学習のモデルを判断するには困難にさせるものである、普遍性をもった定義は無くそして異なった定義はたがいに矛盾しうるものとしての、公平性の定義である[3]。他の研究の論点は、発生論(英: origins of bias )、類型論(英: types of bias )、および低減方法論(英: methods to reduce bias)を含む[4]。
不知を通した公平性(英: Fairness Through Unawareness、略してFTU)と通常称されるもの、あるいは(自動的な)決定を行う際に陽に機微特徴を用いないことを規定するものである、'無分別'(英: Blindness)によるものである、公平性に対するとても直観的な取り組み方がある。二人の個人が、その同じ結果を受け入れるような彼らの機微属性の値についてだけ異なっているため、これは個別公平性の概念に有効である。
最も一般的な個別公平性の概念は2012年にシンシア・ドワーク(英語: Cynthia Dwork)とその共同研究者らによる先駆的な仕事において導入された[22]。そして、モデル写像におけるリプシッツ条件として表現される、入力としての特徴をとる決定写像が「似通った個人らは同じように写像する」ようにできることを組み立てられるべきであるところの原理の、ある数学的な翻訳として考えられる。彼らは、特定の状況でどの個人らが'似ている'かを査定することにおいて、適当な目的‐関係の距離計量の選択の重要性を強調したので、精確にはFTUとは対位法の、認識を通した公平性(英: Fairness Through Awareness、略してFTA)と彼らはこの取り組み方を呼んだ。再び、この問題は、特定の文脈でいかなる変数が「正当」なものとして取り上げられうるかに関して持ち上がる論点にとても関連する。
Mattu, Julia Angwin,Jeff Larson,Lauren Kirchner,Surya (英語), Machine Bias
Zafar, Muhammad Bilal; Valera, Isabel; Rodríguez, Manuel Gómez; Gummadi, Krishna P., Fairness Beyond Disparate Treatment & Disparate Impact: Learning Classification without Disparate Mistreatment
AI Fairness 360
(英語) Responsible AI practices
(英語) How we're using Fairness Flow to help build AI that works better for everyone
Kamiran, Faisal; Calders, Toon (2011-12-03), Data preprocessing techniques for classification without discrimination
Kamiran, Faisal; Karim, Asim; Zhang, Xiangliang (2012), Decision Theory for Discrimination-aware Classification
(英語) Attorney General Eric Holder Speaks at the National Association of Criminal Defense Lawyers 57th Annual Meeting and 13th State Criminal Justice Network Conference, (2014-08-01)
Dieterich, William; Mendoza, Christina; Brennan, Tim (2016), “COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity”, Northpointe Inc
Angwin, Jeff Larson,Julia (July 29, 2016) (英語), Technical Response to Northpointe
Verma, Sahil; Rubin, Julia (2018), “Fairness definitions explained”, 2018 IEEE/ACM international workshop on software fairness (fairware) (IEEE): pp. 1-7
Ziyuan Zhong (2018-10-22), Tutorial on Fairness in Machine Learning
Xu, Joyce (2019-01-18), Algorithmic Solutions to Algorithmic Bias: A Technical Guide
IBM AI Fairness 360 open source toolkit adds new functionalities, Tech Republic, (4 June 2020)
Wiggers, Kyle (2021-03-31) (英語), AI experts warn Facebook's anti-bias tool is 'completely insufficient'
Dwork, Cynthia; Hardt, Moritz; Pitassi, Toniann; Reingold, Omer; Zemel, Richard (2012). “Fairness through awareness”. Proceedings of the 3rd Innovations in Theoretical Computer Science Conference on - ITCS '12. pp. 214–226. ISBN9781450311151
Galhotra, Sainyam; Brun, Yuriy; Meliou, Alexandra (2017). Fairness Testing: Testing Software for Discrimination. 498–510. ISBN9781450351058
Kusner, M. J.; Loftus, J.; Russell, C.; Silva, R. (2017), “Counterfactual fairness”, Advances in neural information processing systems, 30., ISBN9781510860964
Barocas, Solon; Hardt, Moritz; Narayanan, Arvind (2023-11-28), Fairness and Machine Learning: Limitations and Opportunities, MIT Press, ISBN9780262048613
Mullainathan, Sendhil[in 英語] (2018年6月19日). Algorithmic Fairness and the Social Welfare Function. Keynote at the 19th ACM Conference on Economics and Computation (EC'18). YouTube. 48 minutes in. In other words, if you have a social welfare function where what you care about is harm, and you care about harm to the African Americans, there you go: 12 percent less African Americans in jail overnight.... Before we get into the minutiae of relative harm, the welfare function is defined in absolute harm, so we should actually calculate the absolute harm first.
Mitchell, Shira; Potash, Eric; Barocas, Solon; d'Amour, Alexander; Lum, Kristian (2021-03). “Algorithmic Fairness: Choices, Assumptions, and Definitions”. Annual Review of Statistics and Its Application8 (1): 141–163.
Friedler, Sorelle A.; Scheidegger, Carlos; Venkatasubramanian, Suresh (April 2021). “The (Im)possibility of fairness: different value systems require different mechanisms for fair decision making” (英語). Communications of the ACM64 (4): 136–143.
Mehrabi, Ninareh; Morstatter, Fred; Saxena, Nripsuta; Lerman, Kristina; Galstyan, Aram (2021-07-13). “A Survey on Bias and Fairness in Machine Learning”. ACM Computing Surveys54 (6): 115:1–115:35.
Castelnovo, Alessandro; Crupi, Riccardo; Greco, Greta; Regoli, Daniele; Penco, Ilaria Giuseppina; Cosentini, Andrea Claudio (2022). “A clarification of the nuances in the fairness metrics landscape”. Scientific Reports12 (1): 4209.