Acht große Probleme, die durch ChatGPT von OpenAI verursacht werden

WBOY
Freigeben: 2023-05-16 10:34:05
nach vorne
1185 Leute haben es durchsucht

Acht große Probleme, die durch ChatGPT von OpenAI verursacht werden

ChatGPT ist ein leistungsstarker Chatbot mit künstlicher Intelligenz, der die Menschen nach seiner Einführung schnell beeindruckte, aber viele Leute wiesen darauf hin, dass er einige schwerwiegende Mängel aufweist.

Von Sicherheitslücken über Datenschutzbedenken bis hin zu nicht offengelegten Trainingsdaten gibt es viele Bedenken hinsichtlich des Einsatzes von Chatbots mit künstlicher Intelligenz, aber die Technologie wird bereits in Apps integriert und von einer großen Anzahl von Benutzern genutzt , vom Studenten bis zum Firmenangestellten.

Da die Entwicklung der künstlichen Intelligenz keine Anzeichen einer Verlangsamung zeigt, ist es umso wichtiger, die Probleme mit ChatGPT zu verstehen. Da ChatGPT die Zukunft der Menschen verändern wird, sind hier einige der wichtigsten Probleme mit ChatGPT.

Was ist ChatGPT?

ChatGPT ist ein groß angelegtes Sprachmodell zur Erzeugung natürlicher menschlicher Sprache. So wie man mit jemandem spricht, können Menschen mit ChatGPT sprechen und es merkt sich, was andere in der Vergangenheit gesagt haben, und ist gleichzeitig in der Lage, sich selbst zu korrigieren, wenn es herausgefordert wird.

Es wird auf eine Vielzahl von Texten aus dem Internet trainiert, wie z. B. Wikipedia, Blogbeiträge, Bücher und wissenschaftliche Artikel. Es reagiert nicht nur menschenähnlich, sondern kann auch Informationen über die heutige Welt abrufen und historische Informationen aus der Vergangenheit extrahieren.

Es ist leicht zu erlernen, wie man ChatGPT verwendet, und man lässt sich leicht täuschen und glauben, das KI-System habe keine Probleme. In den Monaten seit seiner Veröffentlichung sind jedoch wichtige Fragen zu Privatsphäre, Sicherheit und deren weitreichenderen Auswirkungen auf das Leben der Menschen, von der Arbeit bis zur Bildung, aufgetaucht.

1. Sicherheitsbedrohungen und Datenschutzprobleme

Im März 2023 trat eine Sicherheitslücke in ChatGPT auf und einige Benutzer sahen die Konversationstitel anderer Personen in ihrer Seitenleiste. Das versehentliche Teilen des Chat-Verlaufs eines Benutzers ist für jedes Technologieunternehmen ein ernstes Problem und besonders schlimm, wenn man bedenkt, wie viele Menschen diesen beliebten Chatbot verwenden.

Laut Reuters erreichten allein im Januar 2023 die monatlichen aktiven Nutzer von ChatGPT 100 Millionen. Obwohl die Schwachstelle, die zum Datenleck führte, schnell behoben wurde, forderte die italienische Datenaufsichtsbehörde OpenAI auf, alle Vorgänge zur Verarbeitung italienischer Benutzerdaten einzustellen.

Die Agentur vermutet, dass ChatGPT gegen europäische Datenschutzbestimmungen verstoßen hat. Nach der Untersuchung des Problems wurde OpenAI gebeten, mehrere Anforderungen zu erfüllen, bevor der Chatbot wieder eingesetzt werden konnte.

OpenAI hat das Problem schließlich durch mehrere große Änderungen gelöst. Erstens wurden Altersbeschränkungen hinzugefügt, sodass nur Personen über 18 oder über 13 Jahren die Anwendung mit Erlaubnis ihres Erziehungsberechtigten nutzen können. Darüber hinaus wurden die Datenschutzrichtlinien besser sichtbar gemacht und Benutzern ein Opt-out-Formular zur Verfügung gestellt, mit dem sie ihre Daten von der Verwendung zum Trainieren von ChatGPT ausschließen oder sie auf Wunsch vollständig löschen können.

Diese Änderungen sind ein guter Anfang, aber diese Verbesserungen sollten auf alle ChatGPT-Benutzer ausgeweitet werden.

Das ist nicht die einzige Art und Weise, wie ChatGPT eine Sicherheitsbedrohung darstellt. Ebenso wie Benutzer ist es für Mitarbeiter leicht, versehentlich vertrauliche Informationen weiterzugeben. Ein gutes Beispiel ist, dass Samsung-Mitarbeiter mehrfach Unternehmensinformationen mit ChatGPT geteilt haben.

2. Bedenken hinsichtlich der ChatGPT-Schulung und Datenschutzproblemen

Nach der Popularität von ChatGPT stellten viele Menschen die Frage, wie OpenAI sein Modell überhaupt trainierte.

Selbst nach der Datenschutzverletzung in Italien verbesserte sich die Datenschutzrichtlinie des Unternehmens OpenAI, es hatte jedoch Schwierigkeiten, die Anforderungen der Datenschutz-Grundverordnung, einem europaweiten Datenschutzgesetz, zu erfüllen. Wie TechCrunch berichtet: „Es ist unklar, ob das GPT-Modell auf die persönlichen Daten der Italiener trainiert wurde, d Die Daten, die zuvor zum Trainieren des Modells verwendet wurden, werden gelöscht oder können gelöscht werden. Während die US-Gesetze weniger eindeutig sind, konzentrieren sich die europäischen Datenschutzvorschriften immer noch auf den Schutz personenbezogener Daten, unabhängig davon, ob diese Informationen öffentlich oder privat veröffentlicht werden.

Künstler haben ähnliche Argumente gegen die Verwendung als Trainingsdaten vorgebracht und erklärt, sie hätten nie zugestimmt, dass ihre Arbeit an KI-Modellen trainiert wird. Unterdessen verklagte Getty Images das Unternehmen Stability.AI, weil es seine urheberrechtlich geschützten Bilder zum Trainieren seines Modells für künstliche Intelligenz verwendet hatte.

Solange das OpenAI-Unternehmen seine Trainingsdaten nicht veröffentlicht, mangelt es an Transparenz und es ist schwierig zu wissen, ob es legal ist. Beispielsweise wissen die Leute einfach nicht die Details des ChatGPT-Trainings, welche Daten verwendet wurden, woher die Daten kamen oder wie die Details der Systemarchitektur aussehen.

3. ChatGPT generiert falsche Antworten

ChatGPT ist nicht gut in grundlegender Mathematik, kann einfache Logikfragen nicht beantworten und argumentiert sogar völlig falsche Fakten. Wie Menschen in den sozialen Medien bestätigen können, kann ChatGPT bei vielen Gelegenheiten schief gehen.

OpenAI Corporation ist sich dieser Einschränkungen bewusst. „ChatGPT schreibt manchmal Antworten, die vernünftig klingen, aber falsch sind oder keinen Sinn ergeben“, sagte das Unternehmen. Diese Illusion von Fakten und Fiktionen kann, wie das Unternehmen feststellt, für medizinische Ratschläge oder Interpretationen wichtiger historischer Ereignisse nützlich sein besonders gefährlich für Dinge wie das richtige Verständnis von Sachverhalten.

Im Gegensatz zu anderen künstlichen Intelligenzassistenten wie Siri oder Alexa nutzt ChatGPT nicht das Internet, um nach Antworten zu suchen. Stattdessen baut es Sätze Wort für Wort auf und wählt basierend auf dem Training die wahrscheinlichsten „Tokens“ aus. Mit anderen Worten: ChatGPT leitet seine Antworten durch eine Reihe von Vermutungen ab, weshalb es falsche Antworten so argumentieren kann, als ob sie völlig richtig wären.

Obwohl es sich hervorragend zum Erklären komplexer Konzepte eignet und es zu einem leistungsstarken Lernwerkzeug macht, ist es wichtig, nicht alles zu glauben, was darin steht. ChatGPT ist nicht immer korrekt, zumindest noch nicht.

4. Das System von ChatGPT ist voreingenommen.

ChatGPT ist auf vergangene und gegenwärtige Schriften von Menschen auf der ganzen Welt spezialisiert. Leider bedeutet dies, dass Vorurteile, die in der realen Welt bestehen, auch in KI-Modellen auftauchen können.

ChatGPT liefert nachweislich einige schlechte Antworten, die Geschlecht, Rasse und Minderheiten diskriminieren, und das Unternehmen arbeitet daran, diese Probleme zu reduzieren.

Eine Möglichkeit, dies zu erklären, besteht darin, auf Daten als Problem hinzuweisen und den Menschen die Schuld für Voreingenommenheit im und außerhalb des Internets zuzuschieben. Ein Teil der Schuld liegt aber auch bei der Firma OpenAI, deren Forscher und Entwickler die Daten ausgewählt haben, die zum Trainieren von ChatGPT verwendet wurden.

OpenAI ist sich wieder einmal bewusst, dass es sich hier um ein Problem handelt und gibt an, „voreingenommenes Verhalten“ anzugehen, indem es Feedback von Benutzern sammelt und sie dazu ermutigt, ChatGPT-Ausgaben zu kennzeichnen, die schlecht, anstößig oder einfach falsch sind.

Aufgrund des Potenzials von ChatGPT, Menschen Schaden zuzufügen, könnte man argumentieren, dass ChatGPT nicht der Öffentlichkeit zugänglich gemacht werden sollte, bis diese Probleme untersucht und gelöst sind. Aber der Drang, das erste Unternehmen zu sein, das das leistungsstärkste Modell der künstlichen Intelligenz entwickelt, reichte für OpenAI aus, alle Vorsichtsmaßnahmen in den Wind zu schlagen.

Im Gegensatz dazu veröffentlichte der Google-Mutterkonzern Aalphabet im September 2022 einen ähnlichen Chatbot mit künstlicher Intelligenz namens „Sparrow“. Der Roboter wurde jedoch aufgrund ähnlicher Sicherheitsbedenken aufgegeben.

Etwa zur gleichen Zeit veröffentlichte Facebook ein Sprachmodell für künstliche Intelligenz namens Galactica, das die akademische Forschung unterstützen soll. Es wurde jedoch schnell zurückgerufen, nachdem viele kritisiert hatten, dass es fehlerhafte und voreingenommene Ergebnisse im Zusammenhang mit der wissenschaftlichen Forschung lieferte.

5. Chat-Technologie kann menschliche Arbeitsplätze ersetzen

Die schnelle Entwicklung und Bereitstellung von ChatGPT hat sich noch nicht eingependelt, aber das hat die Integration der zugrunde liegenden Technologie in viele kommerzielle Anwendungen nicht verhindert Bewerbungen in Bearbeitung. Zu den Apps, die GPT-4 integriert haben, gehören Duolingo und Khan Academy.

Ersteres ist eine Sprachlernanwendung, während letzteres ein vielfältiges pädagogisches Lernwerkzeug ist. Beide bieten im Wesentlichen KI-Tutoren oder in Form von KI-gesteuerten Charakteren an, mit denen sich Benutzer in der Sprache unterhalten können, die sie lernen. Oder als KI-Tutor, der maßgeschneidertes Feedback zu ihrem Lernen geben kann.

Dies ist möglicherweise erst der Anfang dafür, dass künstliche Intelligenz menschliche Arbeitsplätze ersetzt. Zu den weiteren Arbeitsplätzen in der Branche, die von Störungen betroffen sind, gehören Rechtsanwaltsgehilfen, Anwälte, Texter, Journalisten und Programmierer.

Einerseits kann künstliche Intelligenz die Art und Weise verändern, wie Menschen lernen. Sie kann es einfacher machen, Bildung und Ausbildung zu erhalten, und der Lernprozess wird einfacher. Andererseits werden aber auch zahlreiche menschliche Arbeitsplätze verschwinden.

Laut dem britischen „Guardian“-Bericht erlitten Bildungseinrichtungen an den Börsen in London und New York enorme Verluste, was die Störungen durch künstliche Intelligenz in einigen Märkten nur 6 Monate nach der Einführung von ChatGPT verdeutlicht.

Technologischer Fortschritt wird immer dazu führen, dass einige Menschen ihren Arbeitsplatz verlieren, aber die Geschwindigkeit der Entwicklung künstlicher Intelligenz führt dazu, dass mehrere Branchen gleichzeitig mit schnellen Veränderungen konfrontiert sind. Es ist unbestreitbar, dass ChatGPT und die zugrunde liegende Technologie die moderne Welt der Menschen völlig verändern werden.

6. Chat-Technologie ist zu einer Herausforderung für die Bildungsbranche geworden

Benutzer können ChatGPT bitten, ihre Artikel Korrektur zu lesen oder Hinweise zur Verbesserung von Absätzen zu geben. Oder Benutzer können sich völlig frei machen und ChatGPT das gesamte Schreiben für sie erledigen lassen.

Viele Lehrer haben versucht, Aufgaben auf ChatGPT zu geben und haben bessere Antworten erhalten als viele Schüler. Vom Schreiben eines Anschreibens bis hin zur Beschreibung der Hauptthemen berühmter literarischer Werke kann ChatGPT alle Aufgaben ohne zu zögern erledigen.

Das wirft die Frage auf: Wenn ChatGPT für Menschen schreiben kann, müssen Studenten dann auch in Zukunft das Schreiben lernen? Es scheint eine existenzielle Frage zu sein, aber wenn Studenten anfangen, ChatGPT zu verwenden, um ihnen beim Schreiben von Arbeiten zu helfen Wenn die Situation eintritt, muss die Schule so schnell wie möglich Reaktionsmaßnahmen ergreifen.

Es sind nicht nur englischsprachige Fächer, die gefährdet sind, ChatGPT kann Menschen bei jeder Aufgabe helfen, die Brainstorming, Zusammenfassungen oder das Ziehen kluger Schlussfolgerungen beinhaltet.

Es überrascht nicht, dass einige Studierende bereits mit künstlicher Intelligenz experimentieren. Laut Stanford Daily zeigen erste Umfragen, dass viele Studenten künstliche Intelligenz nutzen, um Aufgaben und Prüfungen zu erledigen. Als Reaktion darauf schreiben einige Pädagogen Kurse um, um mit Schülern umzugehen, die künstliche Intelligenz nutzen, um Kurse zu navigieren oder bei Tests zu betrügen.

7. ChatGPT könnte realen Schaden anrichten

Kurz nach seiner Veröffentlichung versuchte jemand, ChatGPT zu hacken, was zu einem künstlichen Intelligenzmodell führte, das die Sicherheitsvorkehrungen von OpenAI umgehen konnte, um zu verhindern, dass es anstößigen und gefährlichen Text generiert.

ChatGPT Eine Gruppe von Benutzern auf Reddit nannte ihr uneingeschränktes KI-Modell DAN, kurz für „Do Anything Now“. Leider hat das Tun, was einem gefällt, zu einer Zunahme von Online-Betrügereien durch Hacker geführt. Laut einem Bericht von Ars Technica verkaufen Hacker widerspenstige ChatGPT-Dienste, die Malware erstellen und Phishing-E-Mails generieren können.

Der Versuch, Phishing-E-Mails zu erkennen, die darauf abzielen, vertrauliche Informationen von Personen abzugreifen, ist mit KI-generiertem Text viel schwieriger. Früher waren Grammatikfehler ein eklatantes Warnsignal, aber jetzt ist das vielleicht nicht mehr der Fall, denn ChatGPT kann eine Vielzahl von Texten fließend schreiben, von Prosa über Gedichte bis hin zu E-Mails.

Auch die Verbreitung falscher Informationen ist ein ernstes Problem. Der Umfang des von ChatGPT generierten Texts in Kombination mit der Fähigkeit, Fehlinformationen überzeugend klingen zu lassen, macht alles im Internet verdächtig und verschärft die Gefahren der Deepfake-Technologie.

Die Geschwindigkeit, mit der ChatGPT Informationen generiert, hat Stack Exchange, einer Website, die sich der Bereitstellung der richtigen Antworten auf alltägliche Fragen widmet, Probleme bereitet. Kurz nach der Veröffentlichung von ChatGPT baten viele Benutzer ChatGPT, Antworten zu generieren.

Ohne genügend menschliche Freiwillige, die diese Informationen sortieren, ist es unmöglich, qualitativ hochwertige Antworten zu liefern. Ganz zu schweigen davon, dass einige der Antworten einfach nicht korrekt sind. Um eine Beschädigung der Website zu vermeiden, deaktiviert Stack Exchange die Verwendung von ChatGPT zum Generieren aller Antworten.

8. Das Unternehmen OpenAI hat die Macht, alles zu kontrollieren.

Mit größerer Macht geht auch größere Verantwortung einher, und das Unternehmen OpenAI hat viel Macht. Es ist einer der ersten KI-Entwickler, der tatsächlich KI-Modelle mit mehreren Modellen generiert, darunter Dall-E 2, GPT-3 und GPT-4.

Als privates Unternehmen wählt OpenAI die Daten aus, die zum Trainieren von ChatGPT verwendet werden, und entscheidet, wie schnell neue Entwicklungen eingeführt werden können. Daher warnen viele Experten vor den Gefahren, die von künstlicher Intelligenz ausgehen, es gibt jedoch kaum Anzeichen dafür, dass die Gefahren nachlassen werden.

Stattdessen hat die Popularität von ChatGPT den Wettbewerb zwischen großen Technologieunternehmen angespornt, das nächste große KI-Modell auf den Markt zu bringen, darunter Microsofts Bing AI und Googles Bard. Eine Reihe von Technologieführern auf der ganzen Welt haben einen Brief unterzeichnet, in dem sie eine Verzögerung bei der Entwicklung von Modellen für künstliche Intelligenz fordern, da sie befürchten, dass eine schnelle Entwicklung zu ernsthaften Sicherheitsproblemen führen könnte.

Obwohl OpenAI davon überzeugt ist, dass Sicherheit höchste Priorität hat, wissen die Menschen immer noch nicht viel darüber, wie das Modell selbst funktioniert – im Guten wie im Schlechten. Letztendlich vertrauen die meisten Menschen möglicherweise blind darauf, dass OpenAI ChatGPT verantwortungsvoll erforscht, entwickelt und nutzt.

Ob man mit seinen Methoden einverstanden ist oder nicht, sollte man bedenken, dass OpenAI ein privates Unternehmen ist und das Unternehmen ChatGPT gemäß seinen eigenen Zielen und ethischen Standards weiterentwickeln wird.

Lösung der größten Probleme der künstlichen Intelligenz

Bei ChatGPT gibt es viel Grund zur Freude, aber über seinen unmittelbaren Nutzen hinaus gibt es einige ernsthafte Probleme.

OpenAI erkennt an, dass ChatGPT möglicherweise schädliche, voreingenommene Antworten liefert, und hofft, dieses Problem durch das Sammeln von Benutzerfeedback entschärfen zu können. Aber selbst wenn das nicht der Fall ist, kann es zu überzeugenden Texten kommen, die leicht von schlechten Schauspielern ausgenutzt werden könnten.

Datenschutz- und Sicherheitslücken haben gezeigt, dass die Systeme von OpenAI anfällig sein können, wodurch die persönlichen Daten der Benutzer gefährdet werden. Um die Sache noch besorgniserregender zu machen, knacken einige Leute ChatGPT und verwenden uneingeschränkte Versionen, um Malware und Betrug in beispiellosem Ausmaß zu erstellen.

Bedrohung von Arbeitsplätzen und mögliche Störungen in der Bildungsbranche sind zunehmende Probleme. Angesichts der brandneuen Technologie ist es schwer vorherzusagen, welche Probleme in Zukunft auftreten werden, und leider hat ChatGPT bereits eine Menge Herausforderungen mit sich gebracht.

Das obige ist der detaillierte Inhalt vonAcht große Probleme, die durch ChatGPT von OpenAI verursacht werden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage