Künstliche Intelligenz: Sollen wir so erschreckt sein wie Elon Musk und Bill Gates?

Elon Musk (links) und Bill Gates (rechts) haben beide Bedenken hinsichtlich der künstlichen Intelligenz geäußert.

Besonderheit

Verschlüsselung und Überwachung: Die unaufhaltsame Kraft und das unbewegliche Objekt des Internet-Zeitalters, könnte die FTC verhindern, dass Google die dringend benötigte Kontrolle über Android einnimmt ?, Der Tod dieser Revolution ist stark übertrieben worden, Apples iPhone: Blick auf Vergangenheit und Gegenwart Vorhersage der Zukunft, Intels nächste Grenze: Powering Roboter, eine erweiterte Winter droht für OEMs, wenn Roboter Arbeitsplätze zu beseitigen, werden die Menschen bessere Dinge zu tun, Microsoft und mobile: Suche nach einem Weg nach vorn, Wer wird den Mut haben, die Zukunft zu bauen aufs Neue?

Elon Musk und Bill Gates waren so furchtlos wie alle Unternehmer und Innovatoren des vergangenen halben Jahrhunderts. Sie haben große Risiken für das Frühstück gegessen und bombardierten Milliarden von Dollar danach.

Aber heute haben beide Angst vor der gleichen Sache: Künstliche Intelligenz.

Innovation, Victoria zielt auf das Gebiet der Träume für lokale Tech-Talente, Collaboration, was ist die Organisationsprinzip der heutigen digitalen Arbeitsplatz, Apple, wie es oder nicht, hat Apple wirklich den Mut, um obsolete Technologie Dump, Mode-Glücksspiel

In einem Februar 2015 Reddit AMA, sagte Gates: “Zuerst werden die Maschinen eine Menge Arbeitsplätze für uns zu tun und nicht super intelligent sein.Das sollte positiv sein, wenn wir es gut verwalten.Ein paar Jahrzehnte danach, obwohl die Intelligenz stark genug ist Ein Anliegen sein … und ich verstehe nicht, warum manche Leute nicht betroffen sind. ”

Maschinelles Lernen, Aufgabenautomation und Robotik sind bereits weit verbreitet im Geschäft. Diese und andere AI-Technologien sind zu vermehren, und wir schauen, wie Organisationen am besten nutzen können sie.

Im September 2015 CNN-Interview ging Moskau noch weiter. Er sagte: “AI ist viel weiter fortgeschritten, als die Leute erkennen. Es wäre ziemlich offensichtlich, wenn man einen Roboter sieht, der herumspaziert und sich wie eine Person verhält … Was nicht offensichtlich ist, ist eine riesige Serverbank in einem Gewölbe irgendwo mit einer Intelligenz Und die Augen und Ohren sind überall, jede Kamera, jedes Gerät, das Netzwerk zugänglich ist … Die Position der Menschheit auf diesem Planeten hängt von seiner Intelligenz ab, so dass, wenn unsere Intelligenz überschritten wird, ist es unwahrscheinlich, dass Wir bleiben für den Planeten verantwortlich. ”

Gates und Moschus sind zwei der glaubwürdigsten Denker der Menschheit, die nicht nur mächtige neue Ideen vorgestellt haben, wie Technologie der Menschheit zugute kommen kann, sondern sie auch mit Produkten in die Tat umsetzen, die die Dinge besser machen.

Und immer noch, ihre Kommentare über AI neigen dazu, ein bisschen phantasievoll und paranoid klingen.

Sind sie vor der Kurve und in der Lage, Dinge zu verstehen, die der Rest von uns noch nicht eingeholt haben? Oder sind sie einfach älter und nicht in der Lage, neue Innovationen in die alten Tech-Paradigmen passen, dass sie mit wuchs?

Um fair zu sein, haben andere wie Stephen Hawking und Steve Wozniak ähnliche Ängste ausgesprochen, die der Stellung, die Gates und Moschus ausgesetzt haben, Glaubwürdigkeit verleihen.

Was dies wirklich kocht, ist, dass es Zeit für die Tech-Industrie, um Richtlinien für die Entwicklung der KI zu regieren. Der Grund dafür ist, dass die Technologie mit altruistischen Absichten entwickelt werden könnte, aber letztlich für destruktive Zwecke kooptiert werden könnte – genauso, wie die Atomtechnologie waffen- und verbreitert wurde, bevor sie ordnungsgemäß überprüft werden konnte.

In der Tat, Moskau hat eine direkte Korrelation gibt. Im Jahr 2014, tweeted er, “Wir müssen super vorsichtig mit AI. [Es ist] potenziell gefährlicher als Nukes.”

AI ist bereits in den militärischen Einsatz mit dem Aufstieg der bewaffneten Drohne Flugzeug kriechen. Nicht mehr von Menschen gesteuert, sie führen Angriffe gegen feindliche Ziele durch. Im Moment werden sie von Soldaten ferngesteuert. Aber die Frage ist, wie lange es sein wird, bis die Maschinen bestimmten Menschen oder Gruppen von Menschen – Feinde in Uniform – zu zielen und gegeben die Autonomie zu schießen, um zu töten, wenn sie ihr Ziel erwerben gegeben sind. Sollte es jemals ethisch für eine Maschine sein, ein Urteil in ein menschliches Leben aufzunehmen?

Dies sind die Arten von Gesprächen, die breiter vor sich gehen müssen, bevor die AI-Technologie ihre rasante Entwicklung fortsetzt. Sicherlich wollen die Regierungen sich mit Gesetzen und Verordnungen beschäftigen, aber die Technologieindustrie selbst kann es vorwegnehmen und prägen, indem sie ihre eigenen Verhaltensregeln und ethischen Richtlinien vor den Nationen und Regulierungsstellen, die die Linien verhärten, zusammenführt.

Mit dem vor kurzem erschienenen Film Ex Machina, der das Thema der künstlichen Intelligenz wiedererweckt, schaut man einen Blick zurück auf einige ikonische Darstellungen von AI im Film.

Stuart Russell, Informatikprofessor an der Universität von Kalifornien, Berkeley, hat auch die Entwicklung der KI mit Atomwaffen verglichen. Russell sprach im April mit den Vereinten Nationen in Genf über diese Bedenken. Russell sagte: “Das grundlegende Szenario ist explizite oder implizite Wert Fehlausrichtung – AI-Systeme [das sind] gegebene Ziele, die nicht berücksichtigen alle Elemente, die Menschen zu kümmern.Die Routen könnten vielfältig und komplex sein – Unternehmen suchen ein Super-Technologie-Vorteil, Länder versuchen, [AI-Systeme] vor ihren Feinden zu bauen. ”

Russell empfahl, Richtlinien für Studenten und Forscher zu setzen, um menschliche Werte im Mittelpunkt aller AI Forschung zu halten.

Der Privatsektor-Gigant Google, der seit langem die AI erforscht und noch tiefer mit der Erwerbung von DeepMind im Jahr 2014 taucht, hat ein Ethik-Prüfungsgremium eingerichtet, das die Sicherheit der von ihm entwickelten Technologien mit AI überwacht.

All dies bittet für eine öffentlich-private Partnerschaft, um das Volumen auf diese Gespräche und stellen gut durchdachte Rahmenbedingungen geschaffen.

Lassen Sie uns es tun, bevor AI seine Hiroshima hat.

Für mehr auf, wie Unternehmen AI verwenden, finden Sie auf unserer Website-elaptopcomputer.com Besonderheit AI und die Zukunft des Business.

Früher am Montag Morgenöffner

Victoria zielt auf das Gebiet der Träume für lokale Tech-Talent

Was ist das Organisationsprinzip des heutigen digitalen Arbeitsplatzes?

Wie es oder nicht, hat Apple wirklich die “Mut” erforderlich, um veraltete Technologie Dump

Apples fehlgeschlagenes Mode-Glücksspiel