Le « dysfonctionnement organisationnel » et le « manque d’ambition » d’Apple en matière d’IA sont décrits dans le rapport

Le « dysfonctionnement organisationnel » et le « manque d’ambition » d’Apple en matière d’IA sont décrits dans le rapport

L’émergence de grands modèles de langage (LLM), qui alimentent des technologies révolutionnaires telles que ChatGPT, a rendu difficile pour Apple de suivre les capacités et l’innovation de l’IA, selon un récent rapport sur les coulisses de The Information .

L’article se concentre sur les initiatives prises par John Giannandrea, le chef de l’IA de l’organisation depuis 2018, pour organiser un groupe d’IA désorganisé et rendre Apple plus compétitif avec des entreprises comme Google, dont Giannandrea a fui.

Par exemple, il révèle que l’équipe de casques de réalité mixte en développement d’Apple en avait tellement marre de Siri qu’elle a envisagé de créer un système de commande vocale alternatif totalement différent pour le casque.

Cependant, cela va au-delà de la simple énumération de faits sans importance; il présente plutôt toutes ces données de manière structurée pour montrer qu’Apple n’est pas prêt à rivaliser dans le domaine en développement rapide de l’IA.

Pensez en effet différemment

C’est une stratégie différente de l’expérimentation audacieuse et innovante que vous voyez dans des entreprises comme OpenAI, Microsoft ou Google. Apple a été assez prudent, cherchant à utiliser l’IA et l’apprentissage automatique comme un outil pour améliorer l’expérience utilisateur plutôt que de perturber ou de réimaginer complètement tout ce qui est fait.

En fait, des sources de The Information citent de nombreux exemples de hauts dirigeants d’Apple qui ont interrompu (ou du moins freiné) les efforts agressifs au sein du groupe d’intelligence artificielle de l’entreprise, craignant que des produits comme Siri ne présentent les mêmes types d’erreurs factuelles embarrassantes ou de comportement irrationnel que ChatGPT et ses semblables. En d’autres termes, Apple n’aime pas autoriser les « hallucinations », telles qu’elles sont connues des personnes impliquées dans la recherche sur l’IA et le développement de produits.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *