Le monde professionnel est en constante évolution grâce aux outils d’IA qui nous permettent de travailler plus rapidement et plus intelligemment. Cependant, que se passe-t-il quand la majorité de votre équipe utilise des outils IA non approuvés sur le lieu de travail ?
Introduction
Selon une étude récente de Salesforce, c’est le cas pour 55% des employés. Examinons ce que cela signifie pour les entreprises et comment vous pouvez y faire face dans votre environnement de travail.
L’IA au service de la productivité
Dans son étude mondiale, Salesforce a interrogé plus de 14 000 employés et a découvert que 28% des répondants utilisent actuellement l’IA générative au travail. Mais ce n’est pas tout – 55% des répondants ont admis utiliser des éléments d’IA générative non approuvés, tandis que 40% ont utilisé des outils interdits. Pour ce dernier point, cette utilisation était la plus élevée dans l’industrie automobile et la plus faible dans le secteur à but non lucratif.
La prise de risques par les travailleurs
Les travailleurs sont-ils conscients des risques ? Dans une certaine mesure. L’étude examine comment les travailleurs définissent l’utilisation sûre et éthique de l’IA. Dans toutes les industries, les travailleurs estiment que cela devrait :
- Vérifier les résultats issus des outils d’IA générative avant de les utiliser.
- Utiliser des outils approuvés par l’entreprise et qui ont prouvé leur précision.
- Éviter de saisir des données confidentielles de l’entreprise ou du client.
Cependant, 64% des travailleurs interrogés ont franchi une ligne éthique en faisant passer du travail généré par l’IA comme le leur. Et lorsqu’il s’agit de décrocher une nouvelle opportunité de carrière, 41% envisageront de surestimer leurs compétences avec l’IA générative.
La formation en entreprise : une responsabilité délaissée
C’est une préoccupation croissante pour les employeurs, d’autant plus que 32% des travailleurs s’attendent à utiliser prochainement un logiciel d’IA au travail. Alors, qui est à blâmer ? Deux problèmes flagrants ressortent de l’enquête :
- Les entreprises négligent la formation – Environ 70% des travailleurs interrogés n’ont jamais suivi de formation sur l’utilisation de l’IA au travail.
- Les politiques d’entreprise sont floues ou inexistantes – Seuls 21% des répondants affirment que leur employeur a des politiques claires et définies sur l’utilisation de l’IA générative au travail.
Les industries les plus réglementées
Les industries les plus encadrées sont :
- La technologie
- La communication
- Les services financiers
La réticence des entreprises à autoriser l’IA sur le lieu de travail
Une enquête de Riskonnect réalisée en 2023 révèle que, pour l’utilisation de l’IA générative, 65% des entreprises sont principalement préoccupées par la confidentialité des données. De plus, elles sont préoccupées par les hallucinations – quand un modèle rapporte avec confiance des informations inexactes – et comment celles-ci peuvent influencer la prise de décision. Le troisième problème majeur revient à l’étude de Salesforce, citant la mauvaise utilisation et les pratiques non éthiques des employés.
Gérer les risques liés à l’IA
Avec ces éléments à l’esprit, il y a quelques choses que les entreprises peuvent faire pour y faire face. La première est de définir des directives concernant les outils d’IA autorisés et dans quelles limites. Deuxièmement, les employeurs devraient fournir une formation sur l’IA qui couvre l’usage responsable de l’IA ainsi que les risques liés aux pratiques non sécurisées. Une formation régulière est importante, car l’IA évolue rapidement et les choses peuvent changer drastiquement du jour au lendemain.
Se conformer à la réglementation
Enfin, lorsque vous concevez vos politiques d’IA, tenez compte des réglementations étatiques et fédérales.
La prise de conscience de l’utilisation de l’IA et de ses implications est essentielle pour toute entreprise cherchant à maximiser la productivité sans compromettre la sécurité et l’éthique.