BOSCH STABILESTE INSTRUCTIUNILE PENTRU UTILIZAREA INTELIGENTEI ARTIFICIALE

Bosch a trasat „liniile roșii” etice pentru utilizarea inteligenței artificiale (IA). Compania a stabilit instrucțiuni obligatorii pentru utilizarea inteligenței artificiale în cadrul produselor sale inteligente. Codul de etică Bosch cu privire la inteligența artificială are la bază următoarea idee: oamenii ar trebui să dețină controlul asupra tuturor deciziilor cu privire la inteligența artificială. „Inteligența artificială ar trebui să servească oamenii. Codul de etică cu privire la inteligența artificială oferă angajaților noștri instrucțiuni clare cu privire la dezvoltarea de produse inteligente”, a spus Volkmar Denner, CEO-ul Bosch, în deschiderea de anul acesta a conferinței Bosch ConnectedWorld (BCW) de la Berlin. „Obiectivul nostru este ca oamenii să aibă încredere în produsele noastre bazate pe inteligență artificială.”

IA este o tehnologie de o importanță vitală pentru Bosch. Obiectivul este ca, până în 2025, fiecare produs Bosch să includă IA sau să fi fost dezvoltat sau fabricat cu ajutorul IA. Compania și-a stabilit obiectivul ca produsele sale bazate pe inteligență artificală să fie sigure, robuste și să poată fi explicate. „Dacă IA este o cutie neagră, atunci oamenii nu vor avea încredere în ea. Cu toate acestea, într-o lume conectată, încrederea va fi esențială.”, a spus Michael Bolle, CDO-ul și CTO-ul Bosch. Bosch intenționează să fabrice produse pe bază de inteligență artificială care să inspire încredere. Acest cod de etică are la bază crezul companiei, „Tehnică pentru o viață”, care combină căutarea inovației cu responsabilitatea socială. În următorii doi ani, Bosch intenționează să-și instruiască 20.000 de angajați în domeniul inteligenței artificiale. Codul de etică Bosch cu privire la inteligența artificială, care reglementează utilizarea responsabilă a acestei tehnologii, va face parte din acest program de instruire.

IA are un potențial imens

Inteligența artificială este un motor global al progresului și dezvoltării. De exemplu, consultanții de management PwC prevăd că, până în anul 2030, inteligența artificială va spori PIB-ul în China cu 26 de procente, cu 14 procente în America de Nord și cu aproximativ 10 procente în Europa. Această tehnologie poate ajuta la depășirea provocărilor, cum ar fi nevoia de a acționa din punct de vedere climatic și poate optimiza rezultatele într-o serie de domenii precum transportul, medicina și agricultura. Evaluând volumele imense de date, algoritmii sunt capabili să tragă concluzii și să ia decizii. Cu mult înainte de introducerea unor standarde obligatorii la nivelul Uniunii Europene, Bosch a luat decizia de a se implica în mod activ în problemele etice care apar în legătură cu utilizarea acestei tehnologii. Fundamentul moral pentru acest proces are la bază valori precum cele incluse în Declarația Universală a Drepturilor Omului.

Oamenii trebuie să dețină controlul

Codul de etică a IA al Bosch stipulează că inteligența artificială nu ar trebui să ia nicio decizie cu privire la oameni fără ca acest proces să fie supus unei forme de supraveghere umană. În schimb, inteligența artificială ar trebui să servească oamenii ca un instrument. Sunt descrise trei abordări posibile. Toate au în comun următorul element: pentru toate produsele Bosch ce au la bază IA, oamenii vor păstra controlul asupra deciziilor luate de tehnologie. În prima abordare („oamenii dețin controlul”), inteligența artificială este doar un element de sprijin, exact ca în cazul sistemelor de susținere a deciziilor care ajută oamenii să clasifice obiectele sau organismele vii. În cea de-a doua abordare („omul în buclă”), un sistem inteligent ia decizii în mod autonom, dar acestea pot fi anulate în orice moment de către oameni. Un exemplu este conducerea parțial automatizată, în cadrul căreia șoferul uman poate interveni direct în deciziile unui sistem de asistență la parcare. A treia abordare („omul pe buclă”) este utilizată în aplicații precum sistemele de frânare de urgență. În acest context, inginerii definesc anumiți parametri în timpul procesului de dezvoltare. Astfel, nu există nicio posibilitate de intervenție umană în procesul decizional în sine.