Philosophie de l'intelligence artificielleLa philosophie de l'intelligence artificielle tente de répondre à des questions telles que : Une machine peut-elle agir intelligemment ? Peut-elle résoudre n'importe quel problème qu'une personne voudrait résoudre par la réflexion ? L'intelligence humaine et l'intelligence artificielle sont-elles fondamentalement les mêmes ? Le cerveau humain est-il analogue à un processus de traitement de l'information ? Une machine peut-elle avoir un esprit ou une conscience similaire à celle de l'humain ? Peut-elle senti
Risque de catastrophe planétaire lié à l'intelligence artificielle généraleLes risque existentiel ou risque de catastrophe planétaire lié à l'intelligence artificielle générale est un risque d'extinction humaine ou autre catastrophe mondiale irréversible hypothétiquement associé à des progrès substantiels dans l'intelligence artificielle générale (IAG). alt=Source: mikemacmarketing|vignette|290x290px Un argument avancé est que l'espèce humaine domine actuellement les autres espèces parce que le cerveau humain a des capacités qui manquent aux autres animaux.
OpenAIOpenAI (« AI » pour artificial intelligence, ou intelligence artificielle) est une entreprise spécialisée dans le raisonnement artificiel, à « but lucratif plafonné », dont le siège social est à San Francisco. Avant , elle est reconnue association à but non lucratif. L'objectif de cette société est de promouvoir et de développer un raisonnement artificiel à visage humain qui profitera à toute l'humanité.
RoboéthiqueLa roboéthique est l'éthique appliquée à la robotique. Elle est centrée sur l'éthique humaine pour guider la conception, la construction et l'utilisation des robots. Le terme roboéthique a été inventé en 2002, par le roboticien Gian Marco Veruggio, initiateur du premier colloque international sur la rob éthique en 2004. Comme la roboéthique est une éthique avant tout centrée sur l'humain, elle doit respecter les principes les plus importants et largement acceptés de la Déclaration universelle des droits de l'homme : La dignité humaine et des droits de l'homme.
Intelligence artificielle amicaleUne intelligence artificielle amicale (aussi appelé IA amicale ou IAA) est une intelligence artificielle hypothétique qui aurait un effet positif plutôt que négatif sur l'humanité. Ce concept fait partie de l'éthique de l'intelligence artificielle et est étroitement lié au problème de l'alignement et à l'éthique des machines. Alors que l'éthique des machines se préoccupe de la façon dont un agent artificiellement intelligent doit se comporter, la recherche de l'intelligence artificielle amicale est axée sur la façon de provoquer ce comportement et de s'assurer qu'il est suffisamment maîtrisé.
Robotiquethumb|upright=1.5|Nao, un robot humanoïde. thumb|upright=1.5|Des robots industriels au travail dans une usine. La robotique est l'ensemble des techniques permettant la conception et la réalisation de machines automatiques ou de robots. L'ATILF donne la définition suivante du robot : « il effectue, grâce à un système de commande automatique à base de microprocesseur, une tâche précise pour laquelle il a été conçu dans le domaine industriel, scientifique, militaire ou domestique ».
SuperintelligenceUne superintelligence est un agent hypothétique qui posséderait une intelligence de loin supérieure à celle des humains les plus brillants et les plus doués. Un système résolvant des problèmes (comme un traducteur automatique ou un assistant à la conception) est parfois aussi décrit comme « superintelligent » s'il dépasse de loin les performances humaines correspondantes, même si cela ne concerne qu'un domaine plus limité.
Intelligence artificielle généralevignette|Image générée en juin 2022 par le modèle de génération d'images DALL-E-mini, à partir de la consigne « Intelligence artificielle ». Une intelligence artificielle générale (IAG) est une intelligence artificielle capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. La création d'intelligences artificielles générales est un des principaux objectifs de certaines entreprises comme OpenAI, DeepMind et Anthropic.
Google DeepMindGoogle DeepMind est une entreprise spécialisée dans l'intelligence artificielle appartenant à Google. L'entreprise est remarquée notamment pour son programme de jeu de Go AlphaGo, et son logiciel AlphaFold, qui permet de prédire la structure des protéines à partir de leurs séquences en acides aminés. Originellement appelée DeepMind Technologies Limited et fondée en 2010 par Demis Hassabis, Mustafa Suleyman et Shane Legg, elle est rachetée le 26 janvier 2014, par Google pour plus de 628 millions de dollars américains.
Artificial intelligence arms raceA military artificial intelligence arms race is an arms race between two or more states to develop and deploy lethal autonomous weapons systems (LAWS). Since the mid-2010s, many analysts have noted the emergence of such an arms race between global superpowers for better military AI, driven by increasing geopolitical and military tensions. An AI arms race is sometimes placed in the context of an AI Cold War between the US and China. Lethal autonomous weapons systems use artificial intelligence to identify and kill human targets without human intervention.
Conscience artificielleLa conscience artificielle, également connue sous le nom de conscience des machines ou de conscience synthétique, est un domaine de recherche visant à comprendre, modéliser et tester la potentielle conscience liée aux intelligences artificielles. Ce champ de recherche s'inspire régulièrement d'expériences de pensée telles que celle du spectre inversé, de l'argument de la connaissance, du zombie philosophique ou encore de la chambre chinoise.
Trois lois de la robotiquevignette|upright=1|Réplique de Robby le robot du film Planète interdite, un robot de fiction régi lui aussi par les Trois lois de la robotique. Les Trois lois de la robotique, formulées en 1942 par les écrivains de science-fiction Isaac Asimov et John W. Campbell, sont des règles auxquelles tous les robots positroniques qui apparaissent dans leurs romans doivent obéir.
Régulation des algorithmesLa régulation des algorithmes, ou régulation algorithmique, est la création de lois, de règles et de politiques du secteur public pour la promotion et la régulation des algorithmes, en particulier dans l'intelligence artificielle et l'apprentissage automatique. Pour le sous-ensemble d'algorithmes d'IA, le terme régulation de l'intelligence artificielle est utilisé. Le paysage réglementaire et politique de l'intelligence artificielle (IA) est un problème émergent dans les juridictions du monde entier, y compris dans l'Union européenne.
Robot militairethumb|Un THeMIS, robot militaire de fabrication estonienne. Un robot militaire, aussi appelé arme autonome, est un robot, autonome ou contrôlé à distance, conçu pour des applications militaires. Les drones sont une sous-classe des robots militaires. Des systèmes sont déjà actuellement en service dans un certain nombre de forces armées, où ils s'avèrent efficaces. Le drone "Predator", par exemple, est capable de prendre des photographies de surveillance, et même à lancer des missiles air-sol AGM-114N "Hellfire" II ou des GBU-12 "Paveway" II dans le cas du MQ-1 et du MQ-9.
Machine ethicsMachine ethics (or machine morality, computational morality, or computational ethics) is a part of the ethics of artificial intelligence concerned with adding or ensuring moral behaviors of man-made machines that use artificial intelligence, otherwise known as artificial intelligent agents. Machine ethics differs from other ethical fields related to engineering and technology. Machine ethics should not be confused with computer ethics, which focuses on human use of computers.
Biais algorithmiquevignette|Organigramme représentant l'algorithme derrière un moteur de recommandation. Un biais algorithmique est le fait que le résultat d'un algorithme d'apprentissage ne soit pas neutre, loyal ou équitable. Le biais algorithmique peut se produire lorsque les données utilisées pour entraîner un algorithme d'apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données.
DALL-EDALL-E (ou DALL·E, à prononcer Dali, en référence à Salvador Dali) est un programme d'intelligence artificielle générative, capable de créer des images à partir de descriptions textuelles. Son nom est un mot-valise évoquant à la fois le robot de Pixar WALL-E et le peintre Salvador Dalí. DALL-E utilise une version à de paramètres du modèle de langage GPT-3 pour interpréter les entrées (commandes) en langage naturel (telles que par exemple : « un sac à main en cuir vert en forme de pentagone » ou « une vue isométrique d'un capybara triste »), et générer les images demandées.
Automated decision-makingAutomated decision-making (ADM) involves the use of data, machines and algorithms to make decisions in a range of contexts, including public administration, business, health, education, law, employment, transport, media and entertainment, with varying degrees of human oversight or intervention. ADM involves large-scale data from a range of sources, such as databases, text, social media, sensors, images or speech, that is processed using various technologies including computer software, algorithms, machine learning, natural language processing, artificial intelligence, augmented intelligence and robotics.