Этика и интерпретируемость
Четвертая встреча посвящена обсуждению проектирования искусственного интеллекта и автоматизации принятия решений в самых разных сферах, от беспилотников до торговли ценными бумагами.
Темой этого заседания стала проблема интерпретируемости алгоритмов машинного обучения в контексте дискуссий, с одной стороны, о научной рациональности и, с другой – о прозрачности и об этике социальных приложений алгоритмических инструментов. На этом заседании к нам присоединился известный канадский историк и социолог науки Ив Жэнгра.
Тексты для обсуждения:
Giles Hooker and Cliff Hooker, "Machine Learning and the Future of Realism," Spontaneous Generations: A Journal for the History and Philosophy of Science, Vol. 9, No. 1 (2018) 174-182.
Kate Saenko, Explainable AI: Interpreting the neuron soup of deep learning (https://bdtechtalks.com/2018/10/15/kate-saenko-explainable-ai-deep-learning-rise/)
Cade Metz, Meet GPT-3. It has learned to Code (and Blog and Argue) (https://www.nytimes.com/2020/11/24/science/artificial-intelligence-ai-gpt3.html)