istock-allanswart476663949.jpg
(Crédit : Allan basané/iStockphoto)

Les erreurs d'Autocorrect peuvent être hilares. Il y a des emplacements consacrés seulement à rire des malheurs texting d'autres. C'est un rappel plein d'humour de la vieille expression, « vous voulez quelque chose faite bien, ou vous la voulez faite rapidement ? »

Google « futé composent » le dispositif dans les utilisations AI de Gmail automobile-complètes les phrases d'un utilisateur pour emailing plus vite. L'outil éonomiseur de temps a fonctionné dans des problèmes quand l'AI a commencé le genre arrogant a été associée à certains mots.

En janvier, un de scientifiques des recherches de Google a découvert que le problème quand il m'a dactylographié « rencontre l'investisseur la semaine prochaine. » Automobile-remplissez dispositif suggéré « vous veulent le rencontrer ? » comme question de suivi, selon Reuters.

VOYEZ: Sont datant des apps responsables d'une élévation des assauts sexuels ? Pas probablement

Rien au sujet du mot « investisseur » ne suggère que ce soit un métier de mâle-seulement.

Paul Lambert, le produit Manager de Gmail a dit à Reuters que le genre est « une grande, grande chose » à devenir erroné.

L'ensemble de compagnie pour résoudre le problème, mais aucun des solutions proposées n'a semblé fixer la polarisation du genre de l'AI. Au lieu de cela, Google a décidé de limiter l'assurance. L'interdiction de pronom affecterait moins d'un pour cent de cas où futé compose a proposé quelque chose.

La décision pour limiter le dispositif a pu provenir de l'expérience antérieure de Google des outils prédictifs incertains. Les jurons interdits par compagnie et les slurs raciaux de ses technologies prédictives après que le Search Engine ait peuplé la rhétorique antisémitique dedans 2015 et les images racistes po. 2016

Naturellement, l'AI apprend par les modèles suivants. Si l'information disponible au programme mentionne d'une façon disproportionnée des hommes et les associe à certains rôles, l'AI émulera ceci.

Un exemple extrême est le chatbot de Microsoft, Tay. La compagnie a lancé l'AI sur Twitter dedans 2016 et l'a supprimée après à peine 24 des heures. Tay a assimilé les qualités les plus foncées de l'Internet et a commencé à jaillir le raciste, misogynistique, et la rhétorique antisémitique.

Assumer le genre d'une personne peut mener à l'ennui. Même si le genre n'est pas corrélé avec un certain mot, Google pourrait de manière erronée assigner le genre à un individu non-binaire ou de transport basé sur a

nom traditionnellement masculin ou femelle.

Pendant que la technologie avance, les lotisseurs et les compagnies de technologie apprennent qu'ils doivent soulever leur conscience autour des questions de polarisation sans connaissance.

SUIVEZ Download.com sur Twitter pour toutes dernières nouvelles d'APP.

Traiteurs

  1. Gmail futés composent l'AI ont commencé le genre arrogant ont été associés à certains mots et ont donc perpétué quelques stéréotypes et polarisations.
  2. Si l'information disponible à l'AI mentionne d'une façon disproportionnée des hommes et les associe à certains rôles, l'algorithme l'émule simplement.

Voyez également

Shelby est un auteur d'associé pour Download.com de CNET. Elle a servi de rédacteur dans le chef pour le journal cardinal de Louisville à l'université de Louisville. Elle a interné en tant que rédacteur créateur de Non-Fiction pour le magasin littéraire de monocle de miracle. Son travail apparaît en magasin de verre de montagne, Bookends Review, sondages est, et sur Louisville.com. Son chat, galet, est le meilleur chat jamais.