Produziert von Big Data Digest
Nachdem ChatGPT einen offenen Brief erhalten hatte, der von Hunderten berühmter Experten für künstliche Intelligenz, Technologieunternehmern und Wissenschaftlern unterzeichnet wurde, ist er zu einer „Zielscheibe“ in der KI-Ethik-Community geworden.
Am 30. März erhielt die US-amerikanische Federal Trade Commission (FTC) einen neuen Bericht des Center for Artificial Intelligence and Digital Policy (CAIDP), in dem eine Untersuchung zu OpenAI und seinem Produkt GPT-4 gefordert wurde.
Der Bericht behauptet, dass die FTC festgelegt hat, dass der Einsatz künstlicher Intelligenz „transparent, erklärbar, fair und empirisch vernünftig sein und gleichzeitig die Rechenschaftspflicht fördern“ sollte, behauptet jedoch, dass ChatGPT4 von OpenAI „diese Anforderungen nicht erfüllt“ und „voreingenommen und irreführend“ sei und ein Risiko für die Privatsphäre und die öffentliche Sicherheit darstellen.“
CAIDP ist eine unabhängige, gemeinnützige Forschungsorganisation mit Sitz in Washington, D.C., die sich auf „die Bewertung nationaler KI-Richtlinien und -Praktiken, die Ausbildung von KI-Politikern und die Förderung demokratischer Werte in der KI“ spezialisiert hat wird von der FTC kommen
Rechtsexperten sagten, dass die FTC angesichts der Wachstums- und Entwicklungsgeschwindigkeit der künstlichen Intelligenz im Jahr 2023 möglicherweise Regeln für künstliche Intelligenz formulieren wird.
Ein Artikel vom Dezember 2022 enthüllte, dass die US-amerikanische Federal Trade Commission (FTC) möglicherweise bundesstaatliche KI-Vorschriften einführt, obwohl die im Kongress eingereichten, auf KI ausgerichteten Gesetzentwürfe noch keine nennenswerte Unterstützung gefunden haben. ,
In dem Artikel heißt es: „In den letzten Jahren hat die Federal Trade Commission zwei Veröffentlichungen herausgegeben, die darauf hinweisen, dass der Fokus auf die Regulierung künstlicher Intelligenz weiter zunehmen wird.“ Gleichzeitig hat die Federal Trade Commission Fachwissen über künstliche Intelligenz bei der Durchsetzung entwickelt Verschiedene Vorschriften. Kenntnis von Gesetzen wie dem Fair Credit Reporting Act, dem Equal Credit Opportunity Act und dem FTC Act.
Neben den eingeführten Vorschriften und den kommenden Regeln für KI zeigen von der FTC veröffentlichte Artikel auch Trends in der KI-Aufsicht auf.
Vor 10 Tagen veröffentlichte die U.S. Federal Trade Commission einen Wirtschaftsblogartikel mit dem Titel „Chatbots, Deepfakes und Voice Clones: KI-Täuschung zum Verkauf“. Der Autor ist Michael Atleson, ein Anwalt in der Werbeabteilung der Federal Trade Commission.
Das „Verbot betrügerischen oder unlauteren Verhaltens“ des FTC Act kann für die Herstellung, den Verkauf oder die Verwendung eines Instruments gelten, das tatsächlich dazu bestimmt ist, zu täuschen – auch wenn dies nicht sein ursprünglicher oder alleiniger Zweck ist“, heißt es in dem Blogbeitrag. Unternehmen sollten sogar darüber nachdenken, ob sie KI-Tools herstellen oder verkaufen sollten und ob sie das Risiko wirksam reduzieren.
„Wenn Sie sich entscheiden, ein solches Produkt herzustellen oder anzubieten, sollten Sie alle angemessenen Vorsichtsmaßnahmen treffen, bevor Sie es auf den Markt bringen“, heißt es im Blogbeitrag. „Die Federal Trade Commission (FTC) verfolgt Unternehmen, die potenziell schädliche Technologien verbreiten, ohne angemessene Maßnahmen zu ergreifen, um Verbraucher vor Schaden zu bewahren.“ „Hinterfragen“, ob sich ein Unternehmen, das ein KI-Produkt bewirbt, der Risiken bewusst ist.
„Bevor Sie es auf den Markt bringen, müssen Sie die einigermaßen vorhersehbaren Risiken und Auswirkungen Ihres KI-Produkts verstehen. Wenn etwas schief geht (potenziell fehlschlägt oder zu verzerrten Ergebnissen führt), können Sie nicht nur die Technologie dafür verantwortlich machen.“ Party-Entwickler. Man kann nicht sagen, dass man keine Verantwortung trägt, weil diese Technologie eine „Black Box“ ist und man sie nicht verstehen oder nicht wissen kann, wie man sie testet : ChatGPT5 wurde noch nicht trainiert
Die bundesstaatliche Überprüfung wird möglicherweise nicht bald erfolgen, aber die Tech-Community hat starke Bedenken hinsichtlich des schnell wachsenden ChatGPT geäußert. Kürzlich forderte ein offener Brief, der von Hunderten namhafter Experten für künstliche Intelligenz, Technologieunternehmern und Wissenschaftlern unterzeichnet wurde, ein Moratorium für die Entwicklung und Erprobung künstlicher Intelligenztechnologien, die leistungsfähiger sind als das OpenAI-Sprachmodell GPT-4, um dies zu verhindern Risiken, die es mit sich bringen kann, führen Sie eine ordnungsgemäße Recherche durch.Der Bericht warnt davor, dass Sprachmodelle wie GPT-4 bereits bei immer mehr Aufgaben mit Menschen konkurrieren können, zur Automatisierung von Arbeit und zur Verbreitung von Fehlinformationen verwendet werden können und schlagen sogar vor, dass Systeme der künstlichen Intelligenz Bedenken hinsichtlich der Menschheit ersetzen können Zivilisation neu gestalten.
„Wir fordern alle Labore für künstliche Intelligenz auf, das Training von Systemen mit künstlicher Intelligenz, die leistungsfähiger sind als GPT-4 (einschließlich GPT-5, das derzeit trainiert wird), sofort für mindestens 6 Monate auszusetzen.“
Zu den Unterzeichnern des Briefes gehören Yoshua Bengio, Professor an der Universität Montreal, einer der Begründer der modernen KI, Jaan Tallinn, Historiker und Mitbegründer von Skype, und der berühmte Star Elon Musk.
Dieser Brief wurde vom Future of Life Institute verfasst, einer Organisation, die sich auf technologische Risiken konzentriert, denen die Menschheit ausgesetzt ist. Der Brief fügte hinzu, dass die Forschungspause „öffentlich und überprüfbar“ sein und alle einbeziehen sollte, die an fortschrittlichen KI-Modellen wie GPT-4 arbeiten.
Microsoft und Google antworteten nicht auf Anfragen nach Kommentaren zu dem Brief. Zu den Unterzeichnern gehören offenbar Mitarbeiter mehrerer Technologieunternehmen, die Hochsprachenmodelle entwickeln, darunter Microsoft und Google.
Als Antwort sagte OpenAI-Sprecherin Hannah Wong, dass das Unternehmen nach dem Training des Modells mehr als sechs Monate damit verbracht habe, die Sicherheit und Kalibrierung von GPT-4 zu untersuchen.
Hannah Wong fügte hinzu, dass OpenAI GPT-5 noch nicht trainiert.
Verwandte Berichte:
https://www.php.cn/link/9ad97add7f3d9f29cd262159d4540c96
Das obige ist der detaillierte Inhalt vonDie erste behördliche Überprüfung von ChatGPT stammt möglicherweise von der US-amerikanischen Federal Trade Commission, OpenAI: noch nicht trainiertes GPT5. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!