Drones i cotxes autònoms com a armes: per què hem de tenir por dels pirates informàtics
Drones i cotxes autònoms com a armes: per què hem de tenir por dels pirates informàtics
Anonim

Si la intel·ligència artificial cau en mans equivocades, el món civilitzat pot caure en el caos.

Drones i cotxes autònoms com a armes: per què hem de tenir por dels pirates informàtics
Drones i cotxes autònoms com a armes: per què hem de tenir por dels pirates informàtics

Ningú negarà que la intel·ligència artificial pot portar les nostres vides al següent nivell. La IA és capaç de resoldre molts problemes que estan més enllà del poder dels humans.

No obstant això, molts creuen que la superintel·ligència definitivament voldrà destruir-nos, com SkyNet, o començarà a fer experiments amb persones, com GLDoS del joc Portal. La ironia és que només els humans poden fer que la intel·ligència artificial sigui bona o dolenta.

Per què la intel·ligència artificial pot ser una amenaça greu
Per què la intel·ligència artificial pot ser una amenaça greu

Investigadors de la Universitat de Yale, Oxford, Cambridge i OpenAI han publicat un informe sobre l'abús de la intel·ligència artificial. Diu que el perill real prové dels pirates informàtics. Amb l'ajuda de codi maliciós, poden interrompre el funcionament dels sistemes automatitzats sota el control de la IA.

Els investigadors temen que les tecnologies ben intencionades es vegin perjudicades. Per exemple, els equips de vigilància es poden utilitzar no només per atrapar terroristes, sinó també per espiar ciutadans comuns. Els investigadors també estan preocupats pels drons comercials que ofereixen menjar. És fàcil interceptar-los i plantar alguna cosa explosiva.

Un altre escenari per a l'ús destructiu de la IA són els cotxes autònoms. N'hi ha prou amb canviar unes quantes línies de codi i les màquines començaran a ignorar les normes de seguretat.

Per què la intel·ligència artificial pot ser una amenaça greu
Per què la intel·ligència artificial pot ser una amenaça greu

Els científics creuen que l'amenaça pot ser digital, física i política.

  • La intel·ligència artificial ja s'està utilitzant per estudiar les vulnerabilitats de diversos codis de programari. En el futur, els pirates informàtics poden crear un bot que evitarà qualsevol protecció.
  • Amb l'ajuda de la IA, una persona pot automatitzar molts processos: per exemple, controlar un eixam de drons o un grup de cotxes.
  • Amb l'ajuda de tecnologies com DeepFake, és possible influir en la vida política de l'estat mitjançant la difusió d'informació falsa sobre els líders mundials mitjançant robots a Internet.

Aquests exemples aterridors fins ara només existeixen com a hipòtesi. Els autors de l'estudi no suggereixen un rebuig total de la tecnologia. En canvi, creuen que els governs nacionals i les grans empreses haurien de tenir cura de la seguretat mentre la indústria de la IA encara està en els seus inicis.

Els responsables polítics han d'estudiar la tecnologia i treballar amb experts en la matèria per regular de manera eficaç la creació i l'ús de la intel·ligència artificial.

Els desenvolupadors, al seu torn, han d'avaluar el perill que suposa l'alta tecnologia, preveure les pitjors conseqüències i advertir-ne els líders mundials. L'informe demana als desenvolupadors d'IA que s'uneixin amb experts en seguretat d'altres camps i vegin si els principis que garanteixen la seguretat d'aquestes tecnologies es poden utilitzar per protegir la intel·ligència artificial.

L'informe complet descriu el problema amb més detall, però la conclusió és que la IA és una eina poderosa. Totes les parts interessades haurien d'estudiar la nova tecnologia i assegurar-se que no s'està utilitzant amb finalitats criminals.

Recomanat: