Thématiques & GTAIM > Ethique et numérique : responsabilité sociétale, environnementale ...En construction Responsables du track :
THEME : Éthique et IA avec sa composante sobriété et frugalité De nombreuses questions éthiques se posent dans le développement très rapide de l’IA en termes de respect de la vie privée, de biais algorithmiques (Ahn et al., 2022), d'automatisation des décisions ou encore d'accroissement des inégalités (Young et al., 2021; EIGE, 2023, Ferrara 2023). L'éthique face à l’IA, dans notre vision prospective, ne se limite pas à ces considérations immédiates mais s'étend également à la prise en compte des impacts futurs, tels que l'empreinte écologique des outils numériques et la nécessité d'une sobriété numérique. Elle exige donc une réflexion multidimensionnelle englobant des perspectives techniques, philosophiques, juridiques, et sociétales. Cet atelier vise à rassembler un éventail de perspectives et d'expertises pour enrichir le débat autour de l'éthique de l’IA. Nous aspirons à créer un track multidisciplinaire où chercheurs, praticiens et décideurs peuvent contribuer à façonner un avenir plus éthique et responsable pour l’IA. Nous attendons des soumissions théoriques, méthodologiques ou pratiques et possiblement en lien avec des domaines autres que la gestion : sociologie, économie, philosophie, droit et bien évidemment informatique. Les communications ciblées sur un domaine (santé, éducation, ….) sont invitées à se positionner sur les tracks dédiés. L'intelligence artificielle (IA) se présente comme la disruption technique marquant l’avènement du XXIème siècle, et peut-être au-delà, incarnant une dualité d'opportunités et de menaces pour les Institutions et les organisations à la fois privées et publiques (OCDE, 2019). Le secteur public et ses valeurs sont particulièrement touchés par les avantages et les défis qui ressortent des premières expériences de l’IA (Bertolucci, 2024). Les bouleversements de l’ordre technique sont tels qu’ils font rejaillir un ensemble de questions pour les ordres subalternes, dans la proposition qu’en donne Comte-Sponville (2012), soit les ordres politique, moral, éthique voire divin. Les organisations sont appelées à s'adapter à l’IA à même de remodeler nos certitudes les plus ancrées. Les IA par ses modèles prédictifs, génératifs et interactifs offrent des possibilités inédites, ouvrant la voie à des systèmes spécialisés et, pour certains, multimodaux, exigeant une réactivité dans un rythme inédit par rapport aux précédentes innovations. Les appels à une IA de confiance (Conseil d’État, 2022, WEF, 2022) font appel à des critères comme la supervision humaine, la transparence, la robustesse et la non-discrimination, etc. Comme le remarque le philosophe Thierry Ménissier (2022), le caractère hétérogène de la liste pose question par ce mélange de critères plutôt techniques (fiabilité de la technologie) et de critères plutôt éthiques basés sur les valeurs de la démocratie (ex. la non-discrimination). Nous invitons donc la communauté académique et professionnelle à explorer ces défis sous divers angles lors du prochain congrès de l'Association Information management (AIM), notamment:
Bibliographie : Ahn. J., Kim J., Sung Y., (2022). The effect of gender stereotypes on artificial intelligence recommendations, Journal of Business Research, 141, pp 50-59. Bertolucci, M. (2024). L’intelligence artificielle dans le secteur public : revue de la littérature et programme de recherche. Gestion et management public, 118-139. Comte-Sponville, A. (2012). Le capitalisme est-il moral?. Albin Michel. Conseil d’État (2022). S’engager dans l’intelligence artificielle pour un meilleur service public. OCDE (2019). Hello, World : Artificial intelligence and its use in the public sector. https://www.ccne-ethique.fr/fr/publications/manifeste-pour-une-ethique-du-numerique-0 EIGE (2022). Artificial Intelligence, Platform Work and Gender Equality. European Institute for Gender Equality, Luxembourg: Publications Office of the European Union, 2021, Available online: ttps://rm.coe.int/artificial-intelligenceplatform-work-and-gender-equality/1680a56b24 (accessed on 10 Jan 2024) Ferrera, E. (2023). Should ChatGPT be Biased? Challenges and Risks of Bias in Large Language Models. First Monday, 28 (11), pp 1-24. arXiv:2304.03738v3 [cs.CY]. https://france-science.com/adopter-lia-frugale-concepts-leviers-et-initiatives/ https://lejournal.cnrs.fr/articles/les-defis-dune-ia-frugale Ménissier, T. (2022). Jusqu’où l’institution peut-elle être augmentée ? Pour une éthique publique de l’IA. Quaderni, 105, 73-88. Stahl B.C., Eke D. (2024). The ethics of ChatGPT. Exploring the ethical issues of an emerging technology”, International Journal of Information Management, 74, 102, pp 1-14. Young, E., Wajcman, J., Sprejer, L. (2021). Where are the Women? Mapping the Gender Job Gap in AI. Policy Briefing: Full Report. The Alan Turing Institute. WEC (2022) A blueprint for Equity and Inclusion in Artificial Intelligence. World Economic Forum. Geneva Switzerland. Available online: https://www3.weforum.org/docs/WEF_A_Blueprint_for_Equity_and_Inclusion_in_Artificial_Intelligence_2022.pdf (accessed on 10 Jan 2024) |
Personnes connectées : 2 | Vie privée |