1. Асмолов А. Г. Донкихоты против роботов: Непредсказуемость как Дар?! // Учительская газета: сетевое издание. 21 мая 2019 г. URL:
http://www.ug.ru/article/1107 (дата обращения: 20.11.2019).
2. Асмолов А. Г., Асмолов Г. А. Интернет как генеративное пространство: историко-эволюционная перспектива // Вопросы психологии. 2019. № 4. С. 1–26.
3. Асмолов Г. А. Сумма протестных технологий: куда ведёт гонка инноваций в России // ОpenDemocracy: [сайт]. 19 августа 2019 г. URL: https://www.opendemocracy.net/ru/technological-innovations-protests/
4. Журавлёв А. Л., Нестик Т. А. Социально-психологические последствия внедрения новых технологий: перспективные направления исследований // Психологический журнал. 2019. Т. 40. № 5. С. 35–47.
5. Конкурс методик работы с будущим / АСИ. 2017 // Leader-ID [сайт]. URL:
https://leader-id.ru/event/5242/ (дата обращения: 19.01.2019).
6. Латур Б. Пересборка социального: введение в акторно-сетевую теорию. М.: НИУ ВШЭ, 2014.
7. Нестик Т. А. Отношение личности к прошлому, настоящему и будущему России: результаты эмпирического исследования // Социальная и экономическая психология. Ч. 1: Состояние и перспективы исследований / отв. ред. Т. А. Нестик, Ю. В. Ковалева. М.: Институт психологии РАН, 2018. С. 190-212.
8. Нестик Т. А. Перспективы психологических исследований внедрения технологий искусственного интеллекта // Цифровое общество в культурно-исторической парадигме: колл. монография / под ред. Т. Д. Марцинковской, В. Р. Орестовой, О. В. Гавриченко. М.: МГППУ, 2019. С. 13–22.
9. Нестик Т. А. Социальная психология времени. М.: Институт психологии РАН, 2014.
10. Нестик Т. А., Журавлёв А. Л. Психология глобальных рисков. М.: Институт психологии РАН, 2018.
11. Норман Д. Дизайн вещей будущего. М.: Strelka Press, 2006.
12. Носуленко В. Н. Воспринимаемое качество как основа психофизического измерения событий естественной среды // Современная психофизика / под ред. В. А. Барабанщикова. М.: Институт психологии РАН, 2009. С. 13–40.
13. Роботизация работы: возможность или опасность? // ВЦИОМ: [сайт]. № 3538. 4 декабря 2017. URL: https://wciom.ru/index.php?id=236&uid=116605.
14. Руденко В. Н. Формы алеаторной демократии: генезис и развитие // Науч. ежегодник Института философии и права Уральского отделения РАН. 2018. Т. 18. Вып. 4. С. 97–125.
15. Солдатова Г. У., Рассказова Е. И., Нестик Т. А. Цифровое поколение России: компетентность и безопасность. M.: Смысл, 2017.
16. Талер Р., Санстейн К. Nudge. Архитектура выбора. Как улучшить наши решения о здоровье, благосостоянии и счастье / науч. ред. С. Щербаков; [перевод с англ.]. М.: Манн, Иванов и Фербер, 2017.
17. Awad, E., Dsouza, S., Kim, R. et al. The Moral Machine experiment // Nature. 2018. V. 563. P. 59–64. DOI: 10.1038/s41586-018-0637-6.
18. Bandura, A. Selective Moral Disengagement in the Exercise of Moral Agency // Journal of Moral Education. 2002. V. 31 (2). P. 101–119. DOI: 10.1080/0305724022014322.
19. Borders, M. The Social Singularity: How decentralization will allow us to transcend politics, create global prosperity, and avoid the robot apocalypse. Austin, TX: Social Evolution, 2018.
20. Calhoun, C. S., Bobko, Ph., Gallimore, J. J., Lyons, J. B. Linking precursors of interpersonal trust to human-automation trust: An expanded typology and exploratory experiment // Journal of Trust Research. 2019. V. 9:1. P. 28–46. DOI: 10.1080/21515581.2019.1579730.
21. Carrasco, M., Mills, S., Whybrew, A., Jura, A. The Citizen's Perspective on the Use of AI in Government: BCG Digital Government Benchmarking. 2019. [Online]. Available at: https://www.bcg.com/publications/2019/citizen-perspective-use-artificial-intelligence-government-digital- benchmarking.aspx (дата обращения: 01.05.2019).
22. Chen, J. Y. C., Barnes M. J., Wright, J. L., Stowers, K., Lakhmani, S. G. Situation awareness-based agent transparency for human-autonomy teaming effectiveness // Proc. SPIE 10194, Micro- and Nanotechnology Sensors, Systems, and Applications IX, 101941V (May 18, 2017). DOI: 10.1117/12.2263194; URL:
http://dx.doi.org/10.1117/12.2263194.
23. Derex, M., Bonnefon, J. F., Boyd, R., Mesoudi, A. Causal understanding is not necessary for the improvement of culturally evolving technology // Nature Human Behaviou. 2019. V. 3 (5). P. 446–452. DOI: 10.1038/s41562-019-0567-9.
24. Edelman AI Survey Report, 2019. URL:
https://www.edelman.com/sites/g/files/aatuss191/files/2019-03/2019_Edelman_AI_Survey_Whitepaper.pdf.
25. Engeler, B. Towards prospective design // The Design Journal. 2017. V. 20 (sup1), S4591–S4599. DOI: 10.1080/14606925.2017.1352956.
26. Heras-Escribano, M., De Pinedo-García, M. Affordances and Landscapes: Overcoming the Nature–Culture Dichotomy through Niche Construction Theory // Frontiers in Psychology. 2018. 8: 2294. DOI: 10.3389/fpsyg.2017.02294.
27. Inayatullah, S. Epistemological Pluralism in Futures Studies: The CLA–In-tegral Debates // Futures. 2010. V. 42 (2). P. 99–102.
28. Ipsos MORI. Understanding society: the power and perils of data. Ipsos, 2014. URL:
https://www.ipsos-mori.com/DownloadPublication/1687_sri-understanding-society-july-2014.pdf (дата обращения: 01.05.2019).
29. Ishowo-Oloko, F., Bonnefon, J., Soroye, Z. et al. Behavioural evidence for a transparency–efficiency tradeoff in human–machine cooperation. Nat Mach Intell 1, 517–521 (2019). DOI: 10.1038/s42256-019-0113-5.
30. Jackson, J. C., Gelfand, M., De, S., Fox, A. The loosening of American culture over 200 years is associated with a creativity–order trade-off // Nature Human Behaviour. 2019. V. 3. P. 244–250. DOI: 10.1038/s41562-018-0516-z.
31. Jian, J.-Y., Bisantz, A. M., Drury, C. G. Foundations for an Empirically Determined Scale of Trust in Automated Systems // International Journal of Cognitive Ergonomics. 2000. V. 4 (1). P. 53–71. DOI: 10.1207/S15327566IJCE0401_04.
32. Jobin, A., Ienca, M., Vayena, E. The global landscape of AI ethics guidelines // Nature Machine Intelligence volume, 2019. V.1.P. 389–399. doi:10.1038/s42256-019-0088-2.
33. Kalra, N., Paddock, S. M. Driving to Safety: How Many Miles of Driving Would It Take to Demonstrate Autonomous Vehicle Reliability? Santa Monica, Calif.: RAND Corporation, 2016. RR-1478-RC. As of August 27, 2019: https://www.rand.org/pubs/research_reports/RR1478.html.
34. Knight, W. The world's top deepfake artist is wrestling with the monster he created. MIT Technology Review. Aug 16, 2019. URL:
https://www.technologyreview.com/s/614083/the-worlds-top-deepfake-artist-is-wrestling-with-the-monster-he-created/ (дата обращения: 10.12.2019).
35. Kuo, L. China brings in mandatory facial recognition for mobile phone users // The Guardian, 2 December 2019. URL: https://www.theguardian.com/world/2019/dec/02/china-brings-in-mandatory-facial-recognition-for-mobile-phone-users (дата обращения: 10.12.2019).
36. Levy, K. E., Johns, D. M. When open data is a Trojan Horse: The weaponization of transparency in science and governance. Big Data & Society. 2016.
https://doi.org/10.1177/2053951715621568.
37. Lieder, F., Chen, O. X., Krueger, P. M. et al. Cognitive prostheses for goal achievement // Nature Human Behaviour. 2019. V. 3. P. 1096–1106. DOI: 10.1038/s41562-019-0672-9.
38. Manzini, E. Design, When Everybody Designs. An Introduction to Design for Social Innovation. London, England: The MIT Press Cambridge, 2015.
39. McNamara, A., Smith, J., Murphy-Hill, E. Does ACM's code of ethics change ethical decision making in software development? // ESEC/FSE 2018 Proceedings of the 2018 26th ACM Joint Meeting on European Software Engineering Conference and Symposium on the Foundations of Software Engineering. P. 729–733.
40. Memes That Kill: The Future of Information Warfare // CBInsights Research Briefs. May 3, 2018. URL: https://www.cbinsights.com/research/future-of-information-warfare.
41. Nestik, T. Social trust and representations about risks of the introduction of artificial intelligence into everyday life // The Abstract Book of the 14th ESA Conference. Europe and Beyond: Boundaries, Barriers and Belonging (20–23 August 2019, Manchester). Paris: European Sociological Association, November 2019. P. 507.
42. Noveck, B. S. Smart Citizens, Smarter State: The Technologies of Expertise and the Future of Governing. Cambridge, Massachusetts: Harvard University Press, 2015.
43. Perez, S. Google's new media literacy program teaches kids how to spot disinformation and fake news // Techcrunch.com. June 24, 2019. URL:
https://techcrunch.com/2019/06/24/googles-new-media-literacy-program-teaches-kids-how-to-spot-disinformation-and-fake-news/ (дата обращения: 10.12.2019).
44. Pynadath, D. V., Barnes, M., Wang, N., Chen, J.Y.C. Transparency Communication for Machine Learning in Human-Automation Interaction // Human and Machine Learning. Visible, Explainable, Trustworthy and Transparent. Ed. by J. Zhou and F. Chen. Cham: Springer, 2018. P. 75–90. DOI: 10.1007/978-3-319-90403-0_5.
45. Robinette, P., Howard, A., Wagner, A. R. Conceptualizing overtrust in robots: Why do people trust a robot that previously failed? // Autonomy and Artificial Intelligence: A Threat or Savior? Cham: Springer International Publishing, 2017. P. 129–155. DOI: 10.1007/978-3-319-59719-5_6.
46. Rolnick, D., Donti, P.L., Kaack, L.H. et al. Tackling Climate Change with Machine Learning // arXiv:1906.05433v2 [cs.CY] 5 Nov 2019. URL:
https://arxiv.org/pdf/1906.05433v2.pdf (дата обращения: 20.11.2019).
47. Roozenbeek, J., van der Linden S. Fake news game confers psychological resistance against online misinformation // Palgrave Communications. 2019. V. 5. Article number: 65. DOI: 10.1057/s41599-019-0279-9.
48. Savulescu, J., Kahane, G., Gyngell, C. From public preferences to ethical policy // Nature Human Behaviour. 2019. DOI: 10.1038/s41562-019-0711-6.
49. Schmidt, V., Luccioni, A., Mukkavilli, S. K., Balasooriya, N., Sankaran, K., Chayes, J., and Bengio, Y. Visualizing the consequences of climate change using cycle-consistent adversarial networks. Preprint arXiv: 1905.03709, 2019.
50. Simonite, T. AI experts want to end «black box» algorithms in government // Wired Business. 10.18.17. URL: https://www.wired.com/story/ai-experts-want-to-end-black-box-algorithms-in-government.
51. Slaughter, R. A. What Difference Does "Integral" Make // Futures. 2008. V. 40 (2). P. 120–137.
52. Smith, G. J. Data doxa: The affective consequences of data practices // Big Data & Society. 2018. V. 5. No. 1. https://doi.org/10.1177/2053951717751551.
53. Verhulst, S. G., Zahuranec, A. J., Young, A. Identifying citizens' needs by combining AI and CI. Building a Repository of Tools and an Evidence Base for Augmented Collective Intelligence. The Governance Lab. September 2019. URL:
http://www.thegovlab.org/static/files/publications/CI-AI_oct2019.pdf (дата обращения: 20.11.2019).
54. Von Stackelberg, P., McDowell, A. What in the World? Storyworlds, Science Fiction, and Futures Studies // Journal of Futures Studies. 2015. V. 20 (2). P. 25–46. DOI: 10.6531/JFS.2015.20(2).A25.
55. Wagner, A. R., Borenstein, J., Howard, A. Overtrust in the Robotic Age // Communications of the ACM. 2018. V. 61 Nо. 9. P. 22–24. DOI: 10.1145/3241365.
56. Wahl, D. C., Baxter, S. The designer's role in facilitating sustainable solutions // DesignIssues. 2008. V. 24. Nо. 2. P. 72–83.
57. Zhang, B., Dafoe, A. Artificial Intelligence: American Attitudes and Trends; University of Oxford: Oxford, 2019. URL:
https://governanceai.github.io/US-Public-Opinion-Report-Jan-2019/.