Nachrichten vom 5. April: In den letzten sechs Monaten haben sich leistungsstarke neue Tools für künstliche Intelligenz (KI) in alarmierendem Tempo verbreitet, von Chatbots, die menschenähnliche Gespräche führen können, bis hin zu automatisch laufenden Softwareprogrammen hin zu Bildgeneratoren aus dem Nichts: Die sogenannte generative künstliche Intelligenz (AIGC) ist plötzlich allgegenwärtig und immer leistungsfähiger.
Aber letzte Woche begann sich eine Gegenreaktion gegen diesen KI-Wahn zu formen. Tausende Technologieexperten und Akademiker, angeführt von Elon Musk, CEO von Tesla und Twitter, haben einen offenen Brief unterzeichnet, in dem sie vor „ernsthaften Risiken für die Menschheit“ warnen und ein sechsmonatiges Moratorium für die Entwicklung von KI-Sprachmodellen fordern.
Gleichzeitig reichte eine gemeinnützige KI-Forschungsorganisation eine Beschwerde ein, in der sie die US-amerikanische Federal Trade Commission (FTC) aufforderte, gegen OpenAI, das Unternehmen, das ChatGPT entwickelt hat, zu ermitteln und die weitere kommerzielle Veröffentlichung seiner GPT-4-Software zu stoppen.
Auch die italienische Aufsichtsbehörde hat Maßnahmen ergriffen und ChatGPT aufgrund einer Datenschutzverletzung vollständig gesperrt.
Manche Menschen fordern eine Pause oder eine Verlangsamung der KI-Forschung, und vielleicht ist das verständlich. KI-Anwendungen, die noch vor wenigen Jahren unglaublich oder sogar unvorstellbar schienen, dringen mittlerweile rasch in soziale Medien, Schulen, Arbeitsplätze und sogar in die Politik ein. Angesichts dieser schwindelerregenden Veränderung haben einige Menschen pessimistische Vorhersagen gemacht und glauben, dass KI letztendlich zum Untergang der menschlichen Zivilisation führen könnte.
Die gute Nachricht ist, dass der Hype und die Angst um allmächtige KI möglicherweise übertrieben sind. Obwohl Googles Bard und Microsofts Bing beeindruckend sind, sind sie noch weit davon entfernt, „Skynet“ zu werden.
Die schlechte Nachricht ist, dass die Sorgen der Menschen über die rasante Entwicklung der KI Realität geworden sind. Das liegt nicht daran, dass KI intelligenter wird als der Mensch, sondern daran, dass Menschen KI bereits nutzen, um sich gegenseitig auf eine Weise zu unterdrücken, auszubeuten und zu täuschen, auf die bestehende Organisationen nicht vorbereitet sind. Darüber hinaus ist es umso wahrscheinlicher, dass sie und Unternehmen Aufgaben an sie delegieren, zu denen sie nicht in der Lage ist, je leistungsfähiger Menschen die KI einschätzen.
Zusätzlich zu diesen pessimistischen Weltuntergangsvorhersagen können wir aus zwei Berichten, die letzte Woche veröffentlicht wurden, ein vorläufiges Verständnis der Auswirkungen von KI auf die absehbare Zukunft gewinnen. Der erste Bericht wurde von der US-Investmentbank Goldman Sachs veröffentlicht und bewertete hauptsächlich die Auswirkungen von KI auf die Wirtschaft und den Arbeitsmarkt. Der zweite Bericht wurde von Europol veröffentlicht und konzentrierte sich auf den möglichen kriminellen Missbrauch von KI.
Aus wirtschaftlicher Sicht geht es bei den neuesten KI-Trends vor allem um die Automatisierung von Aufgaben, die früher nur von Menschen erledigt wurden. Ähnlich wie Webstühle, maschinelle Fließbänder und Geldautomaten versprechen AIGCs, bestimmte Arbeiten kostengünstiger und effizienter zu erledigen, als es Menschen könnten.
Aber billiger und effizienter bedeutet nicht immer besser, wie jeder bezeugen kann, der schon einmal mit einem Self-Checkout-Automaten in einem Lebensmittelgeschäft, einem automatischen Anrufbeantworter oder einem Kundendienst-Chatbot zu tun hatte. Im Gegensatz zu früheren Automatisierungswellen ist AIGC in der Lage, Menschen zu imitieren und sich in einigen Fällen sogar als Menschen auszugeben. Dies könnte sowohl zu weit verbreiteter Täuschung führen als auch Arbeitgeber zu der Annahme verleiten, dass KI menschliche Arbeitskräfte ersetzen kann, auch wenn dies nicht der Fall ist.
Die Forschungsanalyse von Goldman Sachs schätzt, dass AIGC rund 300 Millionen Arbeitsplätze auf der ganzen Welt verändern und dazu führen wird, dass Dutzende Millionen Menschen ihren Arbeitsplatz verlieren, aber es wird auch ein erhebliches Wirtschaftswachstum fördern. Die Schätzungen von Goldman Sachs sind jedoch möglicherweise nicht korrekt, da es in der Vergangenheit immer wieder zu Prognosefehlern kam. Im Jahr 2016 prognostizierte die Bank, dass Virtual-Reality-Headsets ebenso allgegenwärtig werden könnten wie Smartphones.
Im KI-Analysebericht von Goldman Sachs ist das Interessanteste, dass sie verschiedene Branchen aufgeschlüsselt haben, d. h. welche Jobs durch Sprachmodelle verbessert werden könnten und welche Jobs vollständig ersetzt werden könnten. Die Forscher von Goldman Sachs ordneten die Aufgaben von Angestellten auf einer Schwierigkeitsskala von 1 bis 7 ein, wobei „Formulare auf Vollständigkeit prüfen“ auf Stufe 1 und Aufgaben, die automatisiert werden könnten, auf Stufe 4 standen, wie etwa „Entscheidung über einen komplexen Antrag vor Gericht“. „ist Stufe 6. Daraus lässt sich die Schlussfolgerung ziehen, dass Tätigkeiten im Bereich Verwaltungsunterstützung und Rechtsanwaltsgehilfen am ehesten durch KI ersetzt werden, während Berufe wie Management und Softwareentwicklung produktiver werden.
Der Bericht prognostiziert optimistisch, dass diese Generation der KI letztendlich das globale BIP um 7 % steigern könnte, da Unternehmen mehr Vorteile von Mitarbeitern mit KI-Kenntnissen ziehen. Aber Goldman Sachs prognostiziert auch, dass in diesem Prozess etwa 7 % der Amerikaner ihre Karrieren verlieren werden und mehr Menschen diese Technologie erlernen müssen, um ihre Beschäftigung aufrechtzuerhalten. Mit anderen Worten: Selbst wenn AIGC positivere Auswirkungen hat, kann das Ergebnis dazu führen, dass eine große Zahl von Mitarbeitern ihren Arbeitsplatz verliert und Menschen in Büros und im täglichen Leben nach und nach durch Roboter ersetzt werden.
Gleichzeitig sind viele Unternehmen bereits bestrebt, Abkürzungen zu nehmen und Aufgaben zu automatisieren, die KI nicht bewältigen kann. Beispielsweise generiert die Technologie-Website CNET automatisch Finanzartikel voller Fehler. Wenn Probleme mit der KI auftreten, können bereits marginalisierte Gruppen überproportional betroffen sein. Trotz der Aufregung um ChatGPT und seinesgleichen haben sich die heutigen Entwickler großer Sprachmodelle noch nicht mit dem Problem voreingenommener Datensätze befasst, die rassistische Vorurteile in KI-Anwendungen wie Gesichtserkennung und Algorithmen zur kriminellen Risikobewertung eingebaut haben. Letzte Woche wurde ein schwarzer Mann wegen einer nicht übereinstimmenden Gesichtserkennung erneut zu Unrecht inhaftiert.
Was noch besorgniserregender ist, ist, dass AIGC in manchen Fällen dazu verwendet werden kann, vorsätzlich Schaden anzurichten. Der Europol-Bericht beschreibt detailliert, wie AIGC eingesetzt wird, um Menschen bei der Begehung von Straftaten wie Betrug und Cyberangriffen zu helfen.
Chatbots sind beispielsweise in der Lage, bestimmte Sprachstile zu generieren und sogar die Stimmen bestimmter Personen zu imitieren, was sie zu einem leistungsstarken Werkzeug für Phishing-Betrügereien machen könnte. Die Vorteile von Sprachmodellen beim Schreiben von Softwareskripten können die Generierung von Schadcode demokratisieren. Sie bieten personalisierte, kontextbezogene Schritt-für-Schritt-Ratschläge und können als Leitfaden für Kriminelle dienen, die in ein Haus einbrechen, jemanden erpressen oder eine Rohrbombe bauen möchten. Wir haben bereits gesehen, wie synthetische Bilder falsche Narrative in sozialen Medien verbreiten können, was die Sorge erneut aufkommen lässt, dass Deepfakes Kampagnen verzerren könnten.
Es ist erwähnenswert, dass Sprachmodelle nicht nur aufgrund ihrer enormen Intelligenz anfällig für Missbrauch sind, sondern auch aufgrund ihrer grundlegenden Wissensmängel. Derzeit führende Chatbots sind darauf trainiert, zu schweigen, wenn sie Versuche erkennen, sie für schändliche Zwecke zu nutzen. Aber wie Europol betont: „Schutzmaßnahmen, die ChatGPT daran hindern, potenziell schädlichen Code bereitzustellen, sind nur dann wirksam, wenn das Modell versteht, was es tut.“ Wie die Fülle an dokumentierten Tricks und Schwachstellen zeigt, bleibt die Selbstwahrnehmung eine der Schwächen der Technologie.
Angesichts all dieser Risiken müssen Sie sich keine Sorgen über ein Weltuntergangsszenario machen, in dem sich das Tempo der AIGC-Entwicklung verlangsamt und der Gesellschaft mehr Zeit zur Anpassung gibt. OpenAI selbst wurde als gemeinnützige Organisation mit der Prämisse gegründet, dass KI auf verantwortungsvollere Weise entwickelt werden kann, ohne den Druck, vierteljährliche Umsatzziele erreichen zu müssen.
Aber OpenAI führt jetzt in einem knappen Rennen, die Tech-Giganten entlassen ihre KI-Ethiker und das Pferd hat möglicherweise trotzdem den Stall verlassen. Wie die akademischen KI-Experten Sayash Kapoor und Arvind Narayanan betonen, ist der Hauptantrieb für Innovationen bei Sprachmodellen derzeit nicht der Drang nach immer größeren Modellen, sondern die Integration der Modelle, die wir haben, in verschiedene Anwendungen und Tools. Sie argumentieren, dass Regulierungsbehörden KI-Tools aus der Perspektive der Produktsicherheit und des Verbraucherschutzes betrachten sollten, anstatt zu versuchen, KI wie Atomwaffen einzudämmen.
Kurzfristig ist es vielleicht das Wichtigste, dass Technologieexperten, Wirtschaftsführer und Regulierungsbehörden die Panik und den Hype beiseite legen und ein tieferes Verständnis für die Vor- und Nachteile von AIGC erlangen, damit sie bei der Einführung vorsichtiger sein können . Wenn KI weiterhin eine Rolle spielt, wird ihre Wirkung, egal was passiert, disruptiv sein. Aber wenn man seine Fähigkeiten überschätzt, wird es schädlicher und nicht weniger.
Das obige ist der detaillierte Inhalt vonUS-Medien: Lassen Sie sich nicht von der Intelligenz der KI einschüchtern. Das wirklich Erschreckende ist, dass sie überschätzt und missbraucht wird.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!