La Intel·ligència Artificial ha de ser vigilada de prop: Brad Smith de Microsoft

Taula de continguts:
Pot que a molts els pugui sonar de broma, però fins no fa gaire temps, la por a la Intel·ligència Artificial al veure aquesta com una amenaça per a la raça humanaera una fòbia força estesa. De fet, ja ho vam veure en aquesta xerrada al nostre episodi un de la segona temporada de Captcha en què vam veure com és una por infundada.
No obstant sembla que no tots ho veuen així i molts pensen que Skynet o Matrix i la revolució de les màquines està a tocar. La intel·ligència artificial pot ser una amenaça i així a la Cimera GeekWire 2019, el President de Microsoft, Brad Smith, ha donat la seva visió, una mica pessimista sobre això
És una amenaça la Intel·ligència Artificial?
Smith va posar com a motiu d'aquesta visió una mica negativa, l'accident d'aviació esdevingut a la zona de l'Estret de Puget, on un avió amb passatgers i tripulants va patir un accident a causa d'un sistema automàtic que no van poder inutilitzar des de cabina arribat el moment.
El programari i la premissa eren magnífics, ja que s'encarrega de detectar un excés en la inclinació de l'aparell si aquesta és molt elevada, baixant el morro i disminuint l'alçada en conseqüència. El problema és que en aquest cas van fallar els mesuraments i la tripulació en cabina no va poder desactivar el sistema amb el conseqüent tràgic final.
Aquesta situació ha estat l&39;excusa per a Brad Smith, que justifica que el desenvolupament tecnològic és elogiable, però ha de ser sempre controlatI en el cas de la Intel·ligència Artificial i els sistemes que la incorporen, aquests han de comptar una mena de botó del pànic o d&39;emergència que permet desactivar-los."
I que consti, no és l'únic cas. A nivell més terrenal i molt més proper a la immensa majoria d'usuaris, tenim els casos d'atropellaments a persones per part de cotxes autònoms.
Es tracta de garantir la primacia de les decisions humanes en certs moments i en determinades circumstàncies en què la presa de decisions d'un sistema basat en intel·ligència artificial no sigui tan adequat com calgui.
Brad Smith no va cessar en aquest punt en la seva crítica cap a l'ús de la Intel·ligència Artificial tal com la coneixem avui dia. Tota la societat i tota la indústria han d'adquirir consciència del camí que prenen:
Hem vist com hi ha drones i màquines de guerra>És només una part del problema que fa que Smith afirma que cal estudiar el possible risc d&39;un desenvolupament no controlat de la IA i l&39;aprenentatge automàtic (machine learning). De fet, ja vam veure una opinió similar de les mans d&39;una enginyera de Google."
És un problema espinós. El desenvolupament de una IA que en un determinat moment no pogués fins i tot gestionar els propis sistemes de control imposats pels éssers humans. La cruïlla d'idees i teories està sobre la taula i farà parlar molt.
Font | GeekWire