Inteligência artificial explicável

Uma inteligência artificial explicável (IAE, IA explicável, ou XAI) é uma inteligência artificial (IA) em que os resultados da solução podem ser compreendidos por humanos. Isso contrasta com o conceito de "caixa preta" no aprendizado de máquina, em que nem mesmo seus designers podem explicar por que uma IA chegou a uma decisão específica.[1] A IAE pode ser uma implementação do direito à explicação social.[2] A IAE é relevante mesmo se não houver nenhum direito legal ou requisito regulatório—por exemplo, a IAE pode melhorar a experiência do usuário de um produto ou serviço ajudando os usuários finais a confiar que a IA está tomando boas decisões. Assim, o objetivo da IAE é explicar o que foi feito, o que é feito agora, o que será feito a seguir e desvendar as informações nas quais as ações se baseiam.[3] Essas características permitem (i) confirmar o conhecimento existente (ii) contestar o conhecimento existente e (iii) gerar novas suposições.[4]

Os algoritmos usados em IA podem ser separados entre algoritmos de aprendizado de máquina (ML) de caixa branca e caixa preta. Os modelos de caixa branca são modelos de ML que fornecem resultados compreensíveis por especialistas no domínio. Os modelos de caixa preta, por outro lado, são extremamente difíceis de explicar e dificilmente podem ser entendidos mesmo por especialistas no domínio.[5] Considera-se que os algoritmos de IAE seguem três princípios: transparência, interpretabilidade e explicabilidade. A transparência está presente “se os processos que extraem parâmetros de modelo de dados de treinamento e geram rótulos de dados de teste podem ser descritos e motivados pelo designer de abordagem”.[6] A interpretabilidade[7] descreve a possibilidade de compreender o modelo de ML e de apresentar a base subjacente para a tomada de decisão de uma forma que seja compreensível por humanos.[8] A explicabilidade é um conceito reconhecido como importante, mas uma definição conjunta ainda não está disponível.[6] Sugere-se que a explicabilidade em ML pode ser considerada como “a coleção de características do domínio interpretável, que contribuíram para que um dado exemplo produzisse uma decisão (por exemplo, classificação ou regressão)”.[9] Se os algoritmos atendem a esses requisitos, eles fornecem uma base para justificar decisões, rastreá-las e, portanto, verificá-las, melhorar os algoritmos e explorar novos fatos.[10]

Às vezes, também é possível obter um resultado com alta precisão com um algoritmo de ML de caixa branca que pode ser interpretado por si mesmo.[11] Isso é especialmente importante em domínios como medicina, defesa, finanças e direito, onde é crucial entender as decisões e construir confiança nos algoritmos.[3]

Os sistemas de IA otimizam o comportamento para satisfazer um sistema de objetivos especificado matematicamente, escolhido pelos projetistas do sistema, como o comando "maximizar a precisão da avaliação de quão positivas são as críticas de filmes no conjunto de dados de teste". A IA pode aprender regras gerais úteis do conjunto de testes, como "avaliações que contenham a palavra 'horrível' provavelmente serão negativas". No entanto, ela também pode aprender regras inadequadas, como "resenhas contendo 'Daniel Day-Lewis' geralmente são positivas"; tais regras podem ser indesejáveis se forem consideradas susceptíveis de falhar na generalização fora do conjunto de teste, ou se as pessoas considerarem que a regra "trapaceia" ou é "injusta". Um ser humano pode auditar regras em um XAI para ter uma ideia da probabilidade de o sistema generalizar para dados futuros do mundo real fora do conjunto de teste.[12]

A cooperação entre agentes, neste caso algoritmos e humanos, depende da confiança. Se os humanos devem aceitar prescrições algorítmicas, eles precisam confiar nelas. A incompletude na formalização de critérios de confiança é uma barreira para abordagens de otimização diretas. Por esse motivo, interpretabilidade e explicabilidade são postulados como objetivos intermediários para verificar outros critérios.[13]

Os sistemas de IA às vezes aprendem truques indesejáveis que fazem um trabalho ótimo no que diz respeito a satisfazer objetivos pré-programados explícitos nos dados de treinamento, mas que não refletem os complicados desejos implícitos dos projetistas de sistemas humanos. Por exemplo, um sistema de 2017 com a tarefa de reconhecimento de imagem aprendeu a "trapacear" procurando uma marca de direitos autorais associada a imagens de cavalos, em vez de aprender como saber se um cavalo foi realmente fotografado.[1] Em outro sistema de 2017, uma IA de aprendizagem supervisionada com a tarefa de agarrar itens em um mundo virtual aprendeu a trapacear colocando seu manipulador entre o objeto e o visualizador de uma forma que parecesse falsamente estar agarrando o objeto.[14][15]

Um projeto de transparência, o programa DARPA XAI, visa produzir modelos de "caixa de vidro" que podem ser explicados por um "humano no circuito", sem sacrificar muito o desempenho da IA. Os usuários humanos devem ser capazes de entender a cognição da IA (tanto em tempo real quanto após o fato) e devem ser capazes de determinar quando confiar na IA e quando desconfiar dela.[16][17] Outras aplicações de XAI são a extração de conhecimento de modelos de caixa preta e comparações de modelos.[18] O termo “caixa de vidro” também tem sido utilizado para designar sistemas que monitoram as entradas e saídas de um sistema, com o objetivo de verificar a aderência do sistema a valores éticos e sócio-legais e, portanto, produzir explicações baseadas em valores.[19] Além disso, o mesmo termo foi usado para nomear um assistente de voz que produz afirmações contrafactuais como explicações.[20]

História e métodos

[editar | editar código-fonte]

No período dos anos 1970 a 1990, foram explorados sistemas de raciocínio simbólico, como MYCIN,[21] GUIDON,[22] SOPHIE,[23] e PROTOS[24][25] que poderiam representar, raciocinar e explicar seu raciocínio para o diagnóstico, para fins instrucionais ou para aprendizado de máquina (aprendizado baseado em explicação). O MYCIN, desenvolvido no início dos anos 1970 como um protótipo de pesquisa para diagnosticar infecções bacterêmicas da corrente sanguínea, poderia explicar[26] quais de suas regras codificadas manualmente contribuíram para um diagnóstico em um caso específico. A pesquisa em sistemas de tutoria inteligentes desenvolveu sistemas como o SOPHIE que poderiam atuar como um 'especialista articulado', explicando a estratégia de resolução de problemas em um nível que estudantes pudessem entender, para que soubessem qual ação tomar a seguir. Por exemplo, a SOPHIE poderia explicar o raciocínio qualitativo por trás de sua solução de problemas eletrônicos, embora, em última análise, se utilizava do simulador de circuito SPICE. Da mesma forma, o GUIDON adicionou regras de tutorial para complementar as regras de nível de domínio do MYCIN para que pudesse explicar a estratégia de diagnóstico médico. Abordagens simbólicas para aprendizado de máquina, especialmente aquelas baseadas na aprendizagem baseada em explicações, como o PROTOS, explicitamente dependiam de representações de explicações, tanto para explicar suas ações quanto para adquirir novos conhecimentos.

Da década de 1980 até o início de 1990, foram desenvolvidos sistemas de manutenção de verdade (TMS) para estender as capacidades de sistemas de raciocínio causal, baseado em regras e baseados em lógica.[27]:360–362 Um TMS atua para rastrear explicitamente linhas alternativas de raciocínio, justificativas para conclusões e linhas de raciocínio que levam a contradições, permitindo que raciocínios futuros evitem esses becos sem saída. Para fornecer explicação, eles rastreiam o raciocínio de conclusões a suposições por meio de operações de regras ou inferências lógicas, permitindo que explicações sejam geradas a partir dos rastros de raciocínio. Por exemplo, considere um solucionador de problemas baseado em regras com apenas algumas regras sobre Sócrates que conclui que ele morreu por envenenamento:

Apenas rastreando a estrutura de dependências, o solucionador de problemas pode construir a seguinte explicação: "Sócrates morreu porque era mortal e bebeu veneno, e todos os mortais morrem quando bebem veneno. Sócrates era mortal porque era um homem e todos os homens são mortais. Sócrates bebeu veneno porque tinha crenças dissidentes, o governo era conservador e aqueles que mantêm crenças dissidentes conservadoras sob governos conservadores devem beber veneno."[28]:164–165

Na década de 1990, os pesquisadores também começaram a estudar se é possível extrair de forma significativa as regras não codificadas manualmente geradas por redes neurais opacas treinadas.[29] Pesquisadores em sistemas especialistas clínicos que criam suporte de decisão alimentado por rede neural para médicos têm procurado desenvolver explicações dinâmicas que permitam que essas tecnologias sejam mais confiáveis e confiáveis na prática.[2] Na década de 2010, as preocupações do público sobre o preconceito racial e outros preconceitos no uso de IA para decisões de condenações criminais e conclusões de credibilidade podem ter levado a um aumento da demanda por inteligência artificial transparente.[1] Como resultado, muitos acadêmicos e organizações estão desenvolvendo ferramentas para ajudar a detectar preconceitos em seus sistemas.[30]

Marvin Minsky et al. levantaram a questão de que a IA pode funcionar como uma forma de vigilância, com os preconceitos inerentes à vigilância, sugerindo HI (inteligência humanística) como uma forma de criar uma IA com o envolvimento de um "humano no ciclo" (human-in-the-loop) mais justa e equilibrada.[31]

As técnicas modernas de IA complexas, como aprendizagem profunda e algoritmos genéticos, são naturalmente opacas.[32] Para resolver esse problema, muitos métodos novos foram desenvolvidos para tornar os novos modelos mais explicáveis e interpretáveis.[33][34][35][36][37][38] Isso inclui muitos métodos, como propagação de relevância em camadas (LRP), uma técnica para determinar quais características em um vetor de entrada específico contribuem mais fortemente para a saída de uma rede neural.[39][40][41] Outras técnicas foram desenvolvidas para explicar uma predição particular feita por um modelo de caixa preta (não linear), um objetivo conhecido como "interpretabilidade local".[42][43][44][45][46][47] É importante notar que a mera transposição dos conceitos de interpretabilidade local para um contexto remoto (onde o modelo caixa-preta é executado em um terceiro) está atualmente sob escrutínio.[48][49]

Adicionalmente, tem havido trabalho em árvores de decisão, conjuntos de árvores e redes Bayesianas, que são mais transparentes para a inspeção.[50][51] Em 2018, houve uma conferência interdisciplinar chamada FAT* (Fairness, Accountability, and Transparency) para estudar transparência e explicabilidade no contexto de sistemas sociotécnicos, muitos dos quais incluem inteligência artificial.[52][53][54]

Algumas técnicas permitem visualizações das entradas às quais os neurônios individuais respondem mais fortemente. Vários grupos descobriram que os neurônios podem ser agregados em circuitos que realizam funções compreensíveis por humanos, algumas das quais surgem de forma confiável em diferentes redes treinadas de forma independente.[55][56]

Em um nível superior, existem várias técnicas para extrair representações compactadas das características de determinadas entradas, que podem então ser analisadas por técnicas de agrupamento padrão. Alternativamente, as redes podem ser treinadas para produzir explicações linguísticas de seu comportamento, que são então diretamente interpretáveis por humanos.[57] O comportamento do modelo também pode ser explicado com referência aos dados de treinamento - por exemplo, avaliando quais entradas de treinamento influenciaram mais um determinado comportamento.[58]

Regulamentação

[editar | editar código-fonte]

À medida que reguladores, órgãos oficiais e usuários em geral passam a depender de sistemas dinâmicos baseados em IA, uma responsabilidade mais clara será necessária para os processos de tomada de decisão para garantir a confiança e a transparência. A evidência desse requisito ganhando mais impulso pode ser vista com o lançamento da primeira conferência global exclusivamente dedicada a esta disciplina emergente, a International Joint Conference on Artificial Intelligence: Workshop on Explainable Artificial Intelligence (XAI).[59]

A União Europeia introduziu um direito de explicação no Direito Geral de Proteção de Dados (GDPR) como uma tentativa de lidar com os problemas potenciais decorrentes da crescente importância dos algoritmos. A implementação da regulamentação teve início em 2018. No entanto, o direito de explicação no GDPR cobre apenas o aspecto local da interpretabilidade. Nos Estados Unidos, as seguradoras devem ser capazes de explicar suas decisões de taxas e cobertura.[60]

A IAE tem sido pesquisada em muitos setores, incluindo:

  1. a b c Sample, Ian (5 de novembro de 2017). «Computer says no: why making AIs fair, accountable and transparent is crucial». The Guardian (em inglês). Consultado em 30 de janeiro de 2018 
  2. a b Edwards, Lilian; Veale, Michael (2017). «Slave to the Algorithm? Why a 'Right to an Explanation' Is Probably Not the Remedy You Are Looking For». Duke Law and Technology Review. 16. 18 páginas. SSRN 2972855Acessível livremente 
  3. a b Gunning, D.; Stefik, M.; Choi, J.; Miller, T.; Stumpf, S.; Yang, G.-Z. (18 de dezembro de 2019). «XAI-Explainable artificial intelligence». Science Robotics (em inglês). 4: eaay7120. ISSN 2470-9476. doi:10.1126/scirobotics.aay7120 
  4. Rieg, Thilo; Frick, Janek; Baumgartl, Hermann; Buettner, Ricardo (17 de dezembro de 2020). «Demonstration of the potential of white-box machine learning approaches to gain insights from cardiovascular disease electrocardiograms». PLOS ONE (em inglês). 15: e0243615. ISSN 1932-6203. PMC 7746264Acessível livremente. PMID 33332440. doi:10.1371/journal.pone.0243615 
  5. Loyola-González, O. (2019). «Black-Box vs. White-Box: Understanding Their Advantages and Weaknesses From a Practical Point of View». IEEE Access. 7: 154096–154113. ISSN 2169-3536. doi:10.1109/ACCESS.2019.2949286 
  6. a b Roscher, R.; Bohn, B.; Duarte, M. F.; Garcke, J. (2020). «Explainable Machine Learning for Scientific Insights and Discoveries». IEEE Access. 8: 42200–42216. ISSN 2169-3536. doi:10.1109/ACCESS.2020.2976199 
  7. Lipton, Zachary C. (junho de 2018). «The Mythos of Model Interpretability: In machine learning, the concept of interpretability is both important and slippery.». Queue (em inglês). 16: 31–57. ISSN 1542-7730. doi:10.1145/3236386.3241340 
  8. «Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI». DeepAI. 22 de outubro de 2019. Consultado em 13 de janeiro de 2021 
  9. Montavon, Grégoire; Samek, Wojciech; Müller, Klaus-Robert (1 de fevereiro de 2018). «Methods for interpreting and understanding deep neural networks». Digital Signal Processing (em inglês). 73: 1–15. ISSN 1051-2004. doi:10.1016/j.dsp.2017.10.011 
  10. Adadi, A.; Berrada, M. (2018). «Peeking Inside the Black-Box: A Survey on Explainable Artificial Intelligence (XAI)». IEEE Access. 6: 52138–52160. ISSN 2169-3536. doi:10.1109/ACCESS.2018.2870052 
  11. Rudin, Cynthia (2019). «Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead». Nature Machine Intelligence (em inglês). 1: 206–215. ISSN 2522-5839. arXiv:1811.10154Acessível livremente. doi:10.1038/s42256-019-0048-x 
  12. «How AI detectives are cracking open the black box of deep learning». Science (em inglês). 5 de julho de 2017. Consultado em 30 de janeiro de 2018 .
  13. Dosilovic, Filip; Brcic, Mario; Hlupic, Nikica (25 de maio de 2018). Explainable Artificial Intelligence: A Survey (PDF). MIPRO 2018. Opatija, Croatia. pp. 210–215. doi:10.23919/MIPRO.2018.8400040 
  14. «DeepMind Has Simple Tests That Might Prevent Elon Musk's AI Apocalypse». Bloomberg.com (em inglês). 11 de dezembro de 2017. Consultado em 30 de janeiro de 2018 
  15. «Learning from Human Preferences». OpenAI Blog. 13 de junho de 2017. Consultado em 30 de janeiro de 2018 
  16. «Explainable Artificial Intelligence (XAI)». DARPA. DARPA. Consultado em 17 de julho de 2017 
  17. Holzinger, Andreas; Plass, Markus (3 de agosto de 2017). «A glass-box interactive machine learning approach for solving NP-hard problems with the human-in-the-loop». arXiv:1708.01104Acessível livremente [cs.AI] 
  18. Biecek, Przemyslaw (23 de junho de 2018). «DALEX: explainers for complex predictive models». Journal of Machine Learning Research. 19: 1–5. Bibcode:2018arXiv180608915B. arXiv:1806.08915Acessível livremente 
  19. Aler Tubella, Andrea; Theodorou, Andreas; Dignum, Frank; Dignum, Virginia (2019). Governance by Glass-Box: Implementing Transparent Moral Bounds for AI Behaviour. California: International Joint Conferences on Artificial Intelligence Organization. ISBN 978-0-9992411-4-1. doi:10.24963/ijcai.2019/802 
  20. Sokol, Kacper; Flach, Peter (2018). «Glass-Box: Explaining AI Decisions With Counterfactual Statements Through Conversation With a Voice-enabled Virtual Assistant». Proceedings of the Twenty-Seventh International Joint Conference on Artificial Intelligence. [S.l.: s.n.] pp. 5868–5870. ISBN 9780999241127. doi:10.24963/ijcai.2018/865 
  21. Fagan, L. M.; Shortliffe, E. H.; Buchanan, B. G. (1980). «Computer-based medical decision making: from MYCIN to VM». Automedica. 3: 97–108 
  22. Clancey, William (1987). Knowledge-Based Tutoring: The GUIDON Program. Cambridge, Massachusetts: The MIT Press 
  23. Brown, John S.; Burton, R. R.; De Kleer, Johan (1982). «Pedagogical, natural language, and knowledge engineering techniques in SOPHIE I, II, and III». Intelligent Tutoring Systems. [S.l.]: Academic Press. ISBN 0-12-648680-8 
  24. Bareiss, Ray; Porter, Bruce; Weir, Craig; Holte, Robert (1990). «Protos: An Exemplar-Based Learning Apprentice». Machine Learning. 3. [S.l.]: Morgan Kaufmann Publishers Inc. pp. 112–139. ISBN 1-55860-119-8 
  25. Bareiss, Ray. Exemplar-Based Knowledge Acquisition: A Unified Approach to Concept Representation, Classification, and Learning. Col: Perspectives in Artificial Intelligence. [S.l.: s.n.] 
  26. Van Lent, M.; Fisher, W.; Mancuso, M. (julho de 2004). «An explainable artificial intelligence system for small-unit tactical behavior». Proceedings of the National Conference on Artificial Intelligence. San Jose, CA: AAAI Press. pp. 900–907. ISBN 0262511835 
  27. Russell, Stuart; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach. Col: Prentice Hall Series in Artificial Intelligence Second ed. Upper Saddle River, New Jersey: Prentice Hall, Pearson Education. ISBN 0-13-790395-2 
  28. Forbus, Kenneth; De Kleer, Johan (1993). Building Problem Solvers. Cambridge, Massachusetts: The MIT Press. ISBN 0-262-06157-0 
  29. Tickle, A. B.; Andrews, R.; Golea, M.; Diederich, J. (novembro de 1998). «The truth will come to light: directions and challenges in extracting the knowledge embedded within trained artificial neural networks». IEEE Transactions on Neural Networks. 9: 1057–1068. ISSN 1045-9227. PMID 18255792. doi:10.1109/72.728352 
  30. «Accenture Unveils Tool to Help Companies Insure Their AI Is Fair». Bloomberg.com (em inglês). Junho de 2018. Consultado em 5 de agosto de 2018 
  31. Minsky, et al., "The Society of Intelligent Veillance" IEEE ISTAS2013, pages 13-17.
  32. Mukherjee, Siddhartha (27 de março de 2017). «A.I. Versus M.D.». The New Yorker. Consultado em 30 de janeiro de 2018 
  33. Csiszár, Orsolya; Csiszár, Gábor; Dombi, József (8 de julho de 2020). «Interpretable neural networks based on continuous-valued logic and multicriteria decision operators». Knowledge-Based Systems (em inglês). 199. 105972 páginas. ISSN 0950-7051. doi:10.1016/j.knosys.2020.105972 
  34. Lipton, Zachary C. (10 de junho de 2016). «The Mythos of Model Interpretability». arXiv:1606.03490Acessível livremente [cs.LG] 
  35. Murdoch, W. James; Singh, Chandan; Kumbier, Karl; Abbasi-Asl, Reza; Yu, Bin (14 de janeiro de 2019). «Interpretable machine learning: definitions, methods, and applications». Proceedings of the National Academy of Sciences of the United States of America. 116: 22071–22080. Bibcode:2019arXiv190104592M. PMC 6825274Acessível livremente. PMID 31619572. arXiv:1901.04592Acessível livremente. doi:10.1073/pnas.1900654116 
  36. Doshi-Velez, Finale; Kim, Been (27 de fevereiro de 2017). «Towards A Rigorous Science of Interpretable Machine Learning». arXiv:1702.08608Acessível livremente [stat.ML] 
  37. Abdollahi, Behnoush, and Olfa Nasraoui. «Explainable Restricted Boltzmann Machines for Collaborative Filtering.». arXiv:1606.07129Acessível livremente [stat.ML] 
  38. Dombi, József; Csiszár, Orsolya (2021). «Explainable Neural Networks Based on Fuzzy Logic and Multi-criteria Decision Tools». Studies in Fuzziness and Soft Computing (em inglês). ISSN 1434-9922. doi:10.1007/978-3-030-72280-7 
  39. Shiebler, Dan (16 de abril de 2017). «Understanding Neural Networks with Layerwise Relevance Propagation and Deep Taylor Series». Dan Shiebler. Consultado em 3 de novembro de 2017 
  40. Bach, Sebastian; Binder, Alexander; Montavon, Grégoire; Klauschen, Frederick; Müller, Klaus-Robert; Samek, Wojciech (10 de julho de 2015). «On Pixel-Wise Explanations for Non-Linear Classifier Decisions by Layer-Wise Relevance Propagation». PLOS ONE. 10: e0130140. Bibcode:2015PLoSO..1030140B. ISSN 1932-6203. PMC 4498753Acessível livremente. PMID 26161953. doi:10.1371/journal.pone.0130140 
  41. Sample, Ian (5 de novembro de 2017). «Computer says no: why making AIs fair, accountable and transparent is crucial». The Guardian (em inglês). Consultado em 5 de agosto de 2018 
  42. Martens, David; Provost, Foster (2014). «Explaining data-driven document classifications» (PDF). MIS Quarterly. 38: 73–99. doi:10.25300/MISQ/2014/38.1.04 
  43. «"Why Should I Trust You?" | Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining» (em inglês). doi:10.1145/2939672.2939778 
  44. Lundberg, Scott M; Lee, Su-In (2017), Guyon, I.; Luxburg, U. V.; Bengio, S.; Wallach, H., eds., «A Unified Approach to Interpreting Model Predictions» (PDF), Curran Associates, Inc., Advances in Neural Information Processing Systems 30: 4765–4774, Bibcode:2017arXiv170507874L, arXiv:1705.07874Acessível livremente, consultado em 13 de março de 2020 
  45. Carter, Brandon; Mueller, Jonas; Jain, Siddhartha; Gifford, David (11 de abril de 2019). «What made you do this? Understanding black-box decisions with sufficient input subsets». The 22nd International Conference on Artificial Intelligence and Statistics (em inglês): 567–576 
  46. Shrikumar, Avanti; Greenside, Peyton; Kundaje, Anshul (17 de julho de 2017). «Learning Important Features Through Propagating Activation Differences». International Conference on Machine Learning (em inglês): 3145–3153 
  47. «Axiomatic attribution for deep networks | Proceedings of the 34th International Conference on Machine Learning - Volume 70». dl.acm.org (em inglês). Consultado em 13 de março de 2020 
  48. Aivodji, Ulrich; Arai, Hiromi; Fortineau, Olivier; Gambs, Sébastien; Hara, Satoshi; Tapp, Alain (24 de maio de 2019). «Fairwashing: the risk of rationalization». PMLR. International Conference on Machine Learning (em inglês): 161–170 
  49. Le Merrer, Erwan; Trédan, Gilles (setembro de 2020). «Remote explainability faces the bouncer problem». Nature Machine Intelligence (em inglês). 2: 529–539. ISSN 2522-5839. arXiv:1910.01432Acessível livremente. doi:10.1038/s42256-020-0216-z 
  50. Bostrom, N., & Yudkowsky, E. (2014). The ethics of artificial intelligence. The Cambridge Handbook of Artificial Intelligence, 316-334.
  51. Vidal, Thibaut; Schiffer, Maximilian (2020). «Born-Again Tree Ensembles». PMLR. International Conference on Machine Learning (em inglês). 119: 9743–9753 
  52. says, Charlotte Lancaster (4 de outubro de 2018). «What is Artificial Intelligence | Artificial Intelligence Explained». Edureka (em inglês). Consultado em 14 de setembro de 2020 
  53. «FAT* Conference» 
  54. «Computer programs recognise white men better than black women». The Economist (em inglês). 2018. Consultado em 5 de agosto de 2018 
  55. Olah, Chris; Cammarata, Nick; Schubert, Ludwig; Goh, Gabriel; Petrov, Michael; Carter, Shan (10 de março de 2020). «Zoom In: An Introduction to Circuits». Distill (em inglês). 5: e00024.001. ISSN 2476-0757. doi:10.23915/distill.00024.001 
  56. Li, Yixuan; Yosinski, Jason; Clune, Jeff; Lipson, Hod; Hopcroft, John (8 de dezembro de 2015). «Convergent Learning: Do different neural networks learn the same representations?». PMLR. Feature Extraction: Modern Questions and Challenges (em inglês): 196–212 
  57. Hendricks, Lisa Anne; Akata, Zeynep; Rohrbach, Marcus; Donahue, Jeff; Schiele, Bernt; Darrell, Trevor (2016). «Generating Visual Explanations». Springer International Publishing. Computer Vision – ECCV 2016. Lecture Notes in Computer Science (em inglês). 9908: 3–19. ISBN 978-3-319-46492-3. arXiv:1603.08507Acessível livremente. doi:10.1007/978-3-319-46493-0_1 
  58. Koh, Pang Wei; Liang, Percy (17 de julho de 2017). «Understanding Black-box Predictions via Influence Functions». PMLR. International Conference on Machine Learning (em inglês): 1885–1894 
  59. «IJCAI 2017 Workshop on Explainable Artificial Intelligence (XAI)» (PDF). Earthlink. IJCAI. Consultado em 17 de julho de 2017 
  60. Kahn, Jeremy (12 de dezembro de 2018). «Artificial Intelligence Has Some Explaining to Do». Bloomberg Businessweek. Consultado em 17 de dezembro de 2018 
  61. «NASA 'Evolutionary' software automatically designs antenna». NASA. NASA. Consultado em 17 de julho de 2017 
  62. «The Flash Crash: The Impact of High Frequency Trading on an Electronic Market» (PDF). CFTC. CFTC. Consultado em 17 de julho de 2017 
  63. Weng, Stephen F; Reps, Jenna; Kai, Joe; Garibaldi, Jonathan M; Qureshi, Nadeem (2017). «Can machine-learning improve cardiovascular risk prediction using routine clinical data?». PLOS ONE. 12: e0174944. Bibcode:2017PLoSO..1274944W. PMC 5380334Acessível livremente. PMID 28376093. doi:10.1371/journal.pone.0174944 
  64. Holzinger, Andreas; Biemann, Chris (28 de dezembro de 2017). «What do we need to build explainable AI systems for the medical domain?». arXiv:1712.09923Acessível livremente [cs.AI] 
  65. a b Lakkaraju, Himabindu; Rudin, Cynthia. «Learning Cost-Effective and Interpretable Treatment Regimes» (PDF). International Conference on Artificial Intelligence and Statistics (AISTATS). 2017 
  66. Tosun, Akif. «Explainable AI (xAI) for Anatomic Pathology». Advances in Anatomic Pathology. July 2020 - Volume 27 - Issue 4 - p 241-250 
  67. https://www.spintellx.com/
  68. «Tesla says it has 'no way of knowing' if autopilot was used in fatal Chinese crash». Guardian. 14 de setembro de 2016. Consultado em 17 de julho de 2017 
  69. Abrams, Rachel; Kurtz, Annalyn (julho de 2016). «Joshua Brown, Who Died in Self-Driving Accident, Tested Limits of His Tesla». New York Times. Consultado em 17 de julho de 2017 
  70. Qureshi, M. Atif; Greene, Derek (4 de junho de 2018). «EVE: explainable vector based embedding technique using Wikipedia». Journal of Intelligent Information Systems (em inglês). 53: 137–165. ISSN 0925-9902. arXiv:1702.06891Acessível livremente. doi:10.1007/s10844-018-0511-x 

Ligações externas

[editar | editar código-fonte]