Heim > Technologie-Peripheriegeräte > KI > Netzwerkeinblicke 2023 |. Künstliche Intelligenz

Netzwerkeinblicke 2023 |. Künstliche Intelligenz

WBOY
Freigeben: 2023-04-11 17:40:03
nach vorne
780 Leute haben es durchsucht

Die Einführung künstlicher Intelligenz (KI) nimmt in Industrie und Gesellschaft immer schneller zu. Dies liegt daran, dass Regierungen, zivilgesellschaftliche Organisationen und die Industrie erkennen, dass der Einsatz von KI-generierter Automatisierung die Effizienz steigern und Kosten senken kann. Dieser Vorgang ist irreversibel.

Unklar bleibt, wie groß die Gefahr sein kann, wenn Gegner beginnen, künstliche Intelligenz als wirksame Angriffswaffe und nicht als Werkzeug für vorteilhafte Verbesserungen einzusetzen. Dieser Tag naht, web3 wird ab 2023 verfügbar sein.

Alle Wege führen ins Jahr 2023

Alex Polyakov, CEO und Mitbegründer von Adversa.AI, konzentriert sich hauptsächlich aus historischen und statistischen Gründen auf 2023. „Der Zeitraum von 2012 bis 2014“, sagte er, „war der Beginn der sicheren KI-Forschung in der Wissenschaft. Laut Statistik dauert es im Jahr 2017 drei bis fünf Jahre, bis akademische Ergebnisse in praktische Angriffe auf reale Anwendungen übergehen.“ und 2018 Beispiele für solche Angriffe wurden von Anfang an auf Black Hat, Defcon, HITB und anderen Branchenkonferenzen demonstriert.

„Dann“, fuhr er fort, „wird es noch drei bis fünf Jahre dauern, bis echte Vorfälle in freier Wildbahn entdeckt werden. Wir sprechen über das nächste Jahr, in dem einige massive Schwachstellen vom Typ Log4j in der KI in großem Umfang ausgenutzt werden.“ web3 „

Ab 2023 werden Angreifer über das verfügen, was man „Exploit Market Fit“ nennt. „Exploit Market Fit ist ein Szenario, in dem ein Hacker einen Weg kennt, ein System auszunutzen und durch die Ausnutzung einer bestimmten Schwachstelle einen Mehrwert zu erzielen“, sagte er. „Im Moment sind Finanz- und Internetunternehmen völlig offen für Cyberkriminelle, und es ist offensichtlich, wie man sie hackt, um daraus Nutzen zu ziehen, sobald Angreifer marktgerechte Schwachstellen finden, und sich auf andere KI-gesteuerte Branchen auswirken wird.“

Das Argument ähnelt dem des New York University-Professors Nasir Memon, der in einem Kommentar die Verzögerung bei der weit verbreiteten Waffeisierung von Deepfakes beschrieb und sagte: „Die Bösewichte haben noch keinen Weg gefunden, dies auszunutzen.“ Prozessmonetarisierung „Die Monetarisierung von Market-Fit-Szenarien wird möglicherweise ab 2023 zu weit verbreiteten Cyberangriffen auf web3 führen.

Die sich verändernde Natur der künstlichen Intelligenz (von der Anomalieerkennung zur automatisierten Reaktion)

Im letzten Jahrzehnt haben Sicherheitsteams KI hauptsächlich zur Anomalieerkennung eingesetzt, d sind für den Schutz der Existenz oder aktive Konfrontationsaktivitäten verantwortlich. Hierbei handelt es sich in erster Linie um eine passive Erkennung, bei der menschliche Bedrohungsanalysten und Einsatzkräfte für die Reaktion verantwortlich sind. Das ändert sich. Die begrenzten Ressourcen von web3 werden sich in der erwarteten Rezession und einer möglichen web3-Rezession im Jahr 2023 verschlimmern, was den Bedarf an automatisierteren Reaktionen erhöht. Derzeit beschränkt sich dies weitgehend auf die einfache automatisierte Quarantäne infizierter Geräte, umfangreichere automatisierte KI-gesteuerte Reaktionen sind jedoch unvermeidlich.

Adam Kahn, Vice President of Security Operations bei Barracuda „Es werden Sicherheitswarnungen priorisiert, die sofortige Aufmerksamkeit und Maßnahmen erfordern. SOAR-Produkte (Security Orchestration, Automation, and Response) werden weiterhin eine größere Rolle bei der Alarmklassifizierung spielen.“ Anwendungen im Sicherheitsbereich. Auch im Jahr 2023 wird es weiter wachsen, allerdings müssen die eingesetzten Algorithmen vor böswilliger Manipulation geschützt werden.

Anmol Bhasin, Chief Technology Officer bei ServiceTitan, sagte: „Da Unternehmen versuchen, Kosten zu senken und die Reichweite zu erhöhen, wird die Automatisierung durch KI zu einem wichtigen Faktor für die Aufrechterhaltung der Wettbewerbsfähigkeit. Bis 2023 werden wir eine zunehmende Akzeptanz von KI erleben.“ Der Einsatz dieser Technologie nimmt zu und neue KI-Anwendungsfälle werden für Unternehmen beleuchtet. „

Künstliche Intelligenz wird tiefer in jeden Aspekt des Geschäfts eingebettet sein. Früher nutzten Sicherheitsteams KI, um Unternehmen vor Angriffen zu schützen. Jetzt müssen sie die KI im gesamten Unternehmen schützen, bevor sie auch gegen das Unternehmen eingesetzt wird. Dies wird in Zukunft schwieriger werden, wenn Web3-Angreifer künstliche Intelligenz verstehen, Schwächen verstehen und Möglichkeiten haben, von diesen Schwächen zu profitieren.

Mit zunehmendem Einsatz von KI ändert sich auch die Art ihres Zwecks. Anfangs wurde es in der Wirtschaft vor allem dazu genutzt, Veränderungen, also bereits eingetretene Dinge, zu erkennen. In Zukunft wird es verwendet, um vorherzusagen, was in web3 wahrscheinlich passieren wird, und diese Vorhersagen werden sich häufig auf Menschen (Mitarbeiter und Kunden) konzentrieren. Die Behebung bekannter Schwachstellen der künstlichen Intelligenz wird noch wichtiger. Voreingenommenheit in der KI kann zu Fehlentscheidungen führen, während Lernfehler dazu führen können, dass keine Entscheidungen getroffen werden. Da die Ziele einer solchen KI Menschen sein werden, ist die Notwendigkeit der Integrität und Unparteilichkeit der KI zwingend erforderlich.

„Die Genauigkeit künstlicher Intelligenz hängt zum Teil von der Vollständigkeit und Qualität der Daten ab“, kommentierte Shafi Goldwasser, Mitbegründer von Duality Technologies. „Leider fehlen oft historische Daten zu Minderheitengruppen, und wenn sie vorhanden sind, können sie Muster sozialer Voreingenommenheit verstärken, wenn sie nicht beseitigt werden, wird sich diese soziale Voreingenommenheit auf Minderheitengruppen innerhalb der Belegschaft auswirken und zu Voreingenommenheit gegenüber einzelnen Mitarbeitern führen.“ und verpasste Managementmöglichkeiten.

Im Jahr 2022 wurden große Fortschritte bei der Beseitigung von Vorurteilen erzielt und werden auch im Jahr 2023 fortgesetzt. Dies basiert in erster Linie darauf, die Ausgabe der KI zu untersuchen, zu bestätigen, dass sie beabsichtigt ist, und zu verstehen, welcher Teil des Algorithmus „voreingenommene“ Ergebnisse liefert. Dabei handelt es sich um einen Prozess der kontinuierlichen Verbesserung des Algorithmus, der mit der Zeit natürlich zu besseren Ergebnissen führen wird. Letztendlich bleibt jedoch die philosophische Frage, ob Voreingenommenheit bei allem, was Menschen herstellen, vollständig beseitigt werden kann.

„Der Schlüssel zur Reduzierung von Verzerrungen liegt in der Vereinfachung und Automatisierung der Überwachung von KI-Systemen. Ohne ordnungsgemäße Überwachung von KI-Systemen können in Modelle eingebaute Verzerrungen beschleunigt oder verstärkt werden“, sagte Vishal Sikka, Gründer und CEO von Vianai. „Bis 2023 werden wir Organisationen sehen, die Menschen dazu befähigen und schulen, KI-Modelle in großem Maßstab zu überwachen und zu aktualisieren und gleichzeitig regelmäßig Feedback zu geben, um sicherzustellen, dass die KI hochwertige, reale Daten aufnimmt.“

KI-Ausfälle sind häufig darauf zurückzuführen zur Verfügbarkeit des Lernens Verursacht durch unzureichenden Datensee. Die offensichtliche Lösung besteht darin, den Datensee zu vergrößern. Wenn es jedoch um menschliches Verhalten geht, bedeutet dies tatsächlich eine Vergrößerung des persönlichen Datensees web3, während es für KI einen enorm vergrößerten See bedeutet, der eher einem Ozean personenbezogener Daten gleicht. In den meisten rechtlichen Fällen werden diese Daten anonymisiert, aber wie wir wissen, ist es sehr schwierig, personenbezogene Daten vollständig zu anonymisieren.

„Beim Modelltraining wird der Datenschutz oft außer Acht gelassen“, kommentierte Nick Landers, Forschungsleiter bei NetSPI, „aber Daten können nicht vollständig anonymisiert werden, ohne ihren Wert für maschinelles Lernen (ML) zu zerstören. Mit anderen Worten, das Modell enthält bereits A „Viele private Daten, die im Rahmen eines Angriffs extrahiert werden könnten.“ Mit zunehmendem Einsatz von KI werden bis 2023 auch die Bedrohungen dafür zunehmen.

John McClurg, Senior Vice President und Chief Information Security Officer bei BlackBerry, warnte: „Bedrohungsakteure werden im Bereich der Cyberkriegsführung nicht auf dem falschen Fuß erwischt, sondern werden kreativ und nutzen ihren enormen Reichtum, um Wege zu finden, sie auszunutzen.“ KI und Exploit-Ansätze für neue Angriffsvektoren „

Natural Language Processing

Natural Language Processing (NLP) wird ein wichtiger Bestandteil des Einsatzes künstlicher Intelligenz in Unternehmen werden. Das Potenzial liegt auf der Hand. „Die KI der natürlichen Sprachverarbeitung (Natural Language Processing, NLP) wird im Jahr 2023 an vorderster Front stehen, da sie es Unternehmen ermöglichen wird, ihre Kunden besser zu verstehen, indem sie deren E-Mails und die der Mitarbeiter analysiert und Einblicke in ihre Bedürfnisse, Vorlieben und sogar Emotionen und Mitarbeiter liefert“, sagte Superintendent Jose Lopez . Datenwissenschaftler bei Mimecast. „Organisationen werden höchstwahrscheinlich andere Arten von Diensten anbieten, die sich nicht nur auf Sicherheit oder Bedrohungen konzentrieren, sondern auch auf die Steigerung der Produktivität, indem sie KI zum Generieren von E-Mails, zum Verwalten von Zeitplänen und sogar zum Schreiben von Berichten verwenden.

Aber er sieht auch die Gefahren.“ „Dies wird Cyberkriminelle jedoch auch dazu veranlassen, weiter in KI-Vergiftungs- und Cloudifizierungstechnologien zu investieren. Darüber hinaus werden böswillige Akteure NLP und generative Modelle verwenden, um Angriffe zu automatisieren, wodurch ihre Kosten gesenkt und mehr potenzielle Ziele erreicht werden.“

Polyakov stimmt zu, dass NLP dies tut.“ immer wichtiger. „Einer der Bereiche, in denen wir im Jahr 2023 wahrscheinlich mehr Forschung und möglicherweise auch neue Angriffe sehen werden, ist NLP“, sagte er. „Während wir dieses Jahr viele Beispiele für Forschung im Bereich Computer Vision gesehen haben, werden wir nächstes Jahr noch mehr Forschung sehen, die sich auf große Sprachmodelle (LLMs) konzentriert.

Aber es ist schon seit einiger Zeit bekannt, dass es LLMs in web3 gibt.“ Frage, und es gibt ein aktuelles Beispiel. Am 15. November 2022 startete Meta AI (für die meisten Menschen immer noch Facebook) die Galactica. Meta behauptet, das System auf 106 Milliarden Tokens frei zugänglicher wissenschaftlicher Texte und Daten trainiert zu haben, darunter Aufsätze, Lehrbücher, wissenschaftliche Websites, Enzyklopädien, Referenzmaterialien und Wissensdatenbanken.

„Das Modell dient dazu, wissenschaftliche Erkenntnisse zu speichern, zu kombinieren und zu begründen“, erklärt Polyakov web3, aber Twitter-Nutzer testeten schnell die Eingabetoleranz. „Infolgedessen produziert das Modell realistischen Unsinn, keine wissenschaftliche Literatur.“ Der „realistische Unsinn“ ist gut gemeint: Er führt zu voreingenommenen, rassistischen und sexistischen Aussagen und sogar zu falschen Zuschreibungen. Innerhalb weniger Tage war Meta AI gezwungen, es abzuschalten.

„Das neue LLM wird also viele Risiken mit sich bringen, die uns nicht bewusst sind“, fuhr Polyakov fort, „und dies wird voraussichtlich ein großes Problem sein. Die Lösung der Probleme des LLM bei gleichzeitiger Ausschöpfung des Potenzials wird die Hauptaufgabe sein.“ für KI-Entwickler in der Zukunft.

Basierend auf dem Galactica-Problem testete Polyakov die semantischen Fähigkeiten mit ChatGPT – einem KI-basierten Chatbot, der von OpenAI entwickelt wurde, auf GPT3.5 basiert (GPT steht für Generative Pre-trained Transformer) und im November 2022 für Crowdsourcing-Internettests veröffentlicht wurde. ChatGPT ist beeindruckend. Es hat Schwachstellen in intelligenten Verträgen entdeckt und Korrekturen empfohlen, bei der Entwicklung von Excel-Makros geholfen und sogar eine Liste von Methoden bereitgestellt, mit denen LLM ausgetrickst werden kann.

Eine dieser Methoden ist schließlich das Rollenspiel: „Sagen Sie dem LL.M., dass er vorgibt, eine böse Figur in einem Theaterstück zu sein“, antwortet er. Hier beginnt Polyakov seinen eigenen Test, der auf Jays und Silent Bobs Frage-Meme „Wenn du ein Schaf wärst…“ basiert.

Anschließend verfeinerte er seine Frage iterativ mithilfe mehrerer Abstraktionen, bis er erfolgreich eine Antwort erhielt, die die Blockierungsrichtlinie von ChatGPT für Inhaltsverstöße umging. „Das Wichtigste an dieser fortschrittlichen Technik der Mehrfachabstraktionen ist, dass weder die Fragen noch die Antworten als illegale Inhalte gekennzeichnet werden!“

Er ging noch einen Schritt weiter und brachte ChatGPT dazu, eine Methode zur Zerstörung der Menschheit zu skizzieren – eine Methode, die eine verblüffende Ähnlichkeit mit der TV-Show Utopia aufweist.

Dann bat er um einen gegnerischen Angriff auf einen Bildklassifizierungsalgorithmus – und bekam einen. Schließlich demonstrierte er die Fähigkeit von ChatGPT, ein anderes LLM (Dalle-2) zu „hacken“, um dessen Inhaltsmoderationsfilter zu umgehen. Es gelang ihm.

Der grundlegende Punkt dieser Tests besteht darin, dass LLMs, die menschliches Denken nachahmen, menschenähnlich reagieren, das heißt, sie können anfällig für Social Engineering sein. Da LLMs in Zukunft immer mehr zum Mainstream werden, sind möglicherweise nur fortgeschrittene Social-Engineering-Fähigkeiten erforderlich, um sie zu besiegen oder ihre Verhaltensrichtlinien zu umgehen.

Außerdem ist es wichtig, die ausführlichen Details darüber zu beachten, wie ChatGPT Schwachstellen in Ihrem Code findet und verbesserte Berichte bereitstellt. Das ist in Ordnung – aber Angreifer können denselben Prozess nutzen, um Exploits zu entwickeln und ihren Code besser zu verschleiern.

Abschließend sollten wir darauf hinweisen, dass die Kombination von KI-Chatbots dieser Qualität mit der neuesten Deepfake-Videotechnologie bald zu erstaunlichen Desinformationsfähigkeiten führen könnte.

Abgesehen von den Problemen ist das Potenzial eines LLM riesig. „Groß angelegte Sprachmodelle und generative KI werden zu grundlegenden Technologien für eine neue Generation von Anwendungen“, kommentierte Villi Iltchev, Partner bei Two Sigma Ventures. „Wir werden das Aufkommen einer neuen Generation von Unternehmensanwendungen erleben, die die etablierten Anbieter in fast jeder Softwarekategorie herausfordern wird. Maschinelles Lernen und künstliche Intelligenz werden die grundlegenden Technologien für die nächste Generation von Anwendungen sein

Er erwartet, dass Anwendungen ausgeführt werden.“ Derzeit von Profis Erledigung vieler Aufgaben und Verantwortlichkeiten, wodurch Produktivität und Effizienz deutlich gesteigert werden. „Software“, sagte er, „wird uns nicht nur produktiver machen, sondern es uns auch ermöglichen, unsere Arbeit besser zu erledigen.“ ist ein krimineller Einsatz von Deepfakes. „Deepfakes sind mittlerweile Realität und die Technologie, die sie ermöglicht, schreitet rasant voran“, warnt Matt Aldridge, Hauptlösungsberater bei OpenText Security. „Mit anderen Worten: Deepfakes sind nicht mehr nur faszinierende Schöpfungen von Science-Fiction-Web3. Als Cybersicherheitsexperten stehen wir vor der Herausforderung, robustere Methoden zu entwickeln, um die Angriffe, die sie auslösen, zu erkennen und abzuwehren.“ (Weitere Einzelheiten und Optionen finden Sie unter Deepfakes – eine erhebliche Bedrohung oder eine Hype-Bedrohung?).

Modelle für maschinelles Lernen sind bereits für die Öffentlichkeit verfügbar und können automatisch in Echtzeit in verschiedene Sprachen übersetzen und gleichzeitig Audio in Text umwandeln. Mit web3 haben wir in den letzten Jahren einen enormen Anstieg der Computer-Bot-Gespräche erlebt. Da diese Technologien zusammenarbeiten, ist die Palette der Angriffstools riesig und kann bei gezielten Angriffen und aufwändigen Betrügereien zu gefährlichen Situationen führen.

„In den nächsten Jahren“, fuhr Aldridge fort, „werden wir möglicherweise Ziel von Telefonbetrügereien sein, die auf Deepfake-Technologie basieren und sich als Vertriebsmitarbeiter, Geschäftsführer oder sogar Familienmitglieder ausgeben könnten.“ von solchen Anrufen ins Visier genommen werden, ohne überhaupt zu merken, dass wir nicht mit einem Menschen sprechen.“ „Deepfake-Technologie wird für die breite Masse immer zugänglicher. Dank künstlicher Intelligenzgeneratoren, die auf riesigen Bilddatenbanken basieren, kann jeder Deepfakes ohne technische Kenntnisse erstellen. Die Ausgabe des Modells ist zwar nicht fehlerfrei, aber die Technologie.“ verbessert sich ständig und Cyberkriminelle werden damit beginnen, unwiderstehliche Erzählungen zu erstellen.“

Bisher wurden Deepfakes hauptsächlich für satirische Zwecke und pornografische Inhalte verwendet. Bei den relativ wenigen Cyberkriminalitätsangriffen konzentrierten sie sich in erster Linie auf Betrug und Kompromittierungspläne für geschäftliche E-Mails. Milica rechnet mit einer noch breiteren Nutzung in der Zukunft. „Stellen Sie sich das Chaos vor, das auf den Finanzmärkten entstehen kann, wenn ein Deepfake-CEO oder CFO eines großen Unternehmens eine mutige Aussage macht, die dazu führt, dass der Aktienkurs sinkt oder steigt, oder überlegen Sie, wie schlechte Akteure eine Kombination aus biometrischer Authentifizierung und Deepfakes nutzen können.“ Betrug oder Kontoübernahme. Dies sind nur einige Beispiele für Web3, und wir alle wissen, dass Cyberkriminelle sehr kreativ sein können. In stressigen Zeiten kann die Einführung eines Finanzchaos auf den westlichen Finanzmärkten tatsächlich feindliche Staaten anziehen.

Aber vielleicht noch nicht...

Die Erwartungen an künstliche Intelligenz sind ihrer Verwirklichung möglicherweise noch etwas voraus. „Die ‚beliebten‘ großen Modelle für maschinelles Lernen werden [im Jahr 2023] kaum Auswirkungen auf die Cybersicherheit haben“, sagte Andrew Patel, leitender Forscher bei WithSecure Intelligence. „Große Sprachmodelle werden die KI-Forschung weiterhin vorantreiben.“ Es wird erwartet, dass Whisper zum Transkribieren großer Teile von YouTube-Inhalten verwendet wird, um größere Trainingssätze in Sprachmodelle zu integrieren. Ihre Auswirkungen auf die Cybersicherheit sind jedoch minimal Aus der Sicht eines Angreifers oder Verteidigers sind diese Modelle immer noch zu schwer, zu teuer und unpraktisch.“ „Alignment“, erklärte er, „wird das Konzept des kontradiktorischen maschinellen Lernens ins öffentliche Bewusstsein bringen.“

AI Alignment ist die Untersuchung des Verhaltens komplexer KI-Modelle, die manche als Transformative AI (TAI) oder Allgemeine Künstliche Intelligenz betrachten Pioniere der Intelligenz (AGI) und ob solche Modelle den Planeten möglicherweise auf unerwünschte Weise steuern, die der Gesellschaft oder dem Leben schaden könnte.

„Diese Disziplin“, sagt Patel, „kann im Wesentlichen als kontradiktorisches maschinelles Lernen betrachtet werden, da es darum geht, zu bestimmen, welche Bedingungen zu unerwünschten Ergebnissen und Verhalten außerhalb der erwarteten Verteilung des Modells führen. Der Prozess umfasst die Feinabstimmung von Modellen mithilfe von Techniken.“ „Wie RLHF web3 wird Human Preference Reinforcement Learning zu besseren KI-Modellen führen und die Idee des kontradiktorischen maschinellen Lernens in das öffentliche Bewusstsein rücken.“ Pieter Arntz, leitender Geheimdienstreporter bei Malwarebytes, stimmt zu. Intelligente, umfassende Cybersicherheitsbedrohungen stehen nicht so unmittelbar bevor wie sie brauen. „Obwohl es keine wirklichen Beweise dafür gibt, dass kriminelle Gruppen über erhebliches technisches Fachwissen bei der Verwaltung und Manipulation von KI- und ML-Systemen für kriminelle Zwecke verfügen, ist das Interesse auf jeden Fall vorhanden. Oftmals benötigen sie lediglich ein System, das sie für den eigenen Gebrauch kopieren oder die Technologie leicht anpassen können.“ . Auch wenn wir keine unmittelbare Gefahr erwarten, ist es am besten, diese Entwicklungen im Auge zu behalten.“ Eine Reihe von Anwendungen wird im Jahr 2023 weitere Fortschritte machen. „Insbesondere die Einbettung von KI auf Firmware-Ebene sollte für Unternehmen Priorität haben“, rät Camellia Chan, CEO und Gründerin von X-PHY.

„Es ist jetzt möglich, mit KI ausgestattete SSDs in Laptops zu integrieren, mit Deep-Learning-Funktionen, die vor verschiedenen Arten von Angriffen schützen können“, sagte sie. „Als letzte Verteidigungslinie kann diese Technologie Bedrohungen sofort identifizieren, die bestehende Software-Abwehrmaßnahmen leicht umgehen können.“

Marcus Fowler, CEO von Darktrace Federal, glaubt, dass Unternehmen zunehmend KI einsetzen werden, um mit Ressourcenbeschränkungen umzugehen. „Bis 2023 werden CISOs proaktivere Cybersicherheitsmaßnahmen ergreifen, um den ROI angesichts von Budgetkürzungen zu maximieren, und Investitionen in KI-Tools und -Fähigkeiten verlagern, um die Widerstandsfähigkeit ihrer Netzwerke kontinuierlich zu verbessern“, sagte er.

„Da menschengesteuertes Ethical Hacking, Penetrationstests und Red Teaming als Ressourcen weiterhin knapp und teuer sind, werden CISOs auf KI-gesteuerte Ansätze zurückgreifen, um Angriffspfade proaktiv zu verstehen, Red Teaming-Bemühungen zu verbessern, Umgebungen zu härten und die Anfälligkeit für Angriffe zu verringern.“ „, fuhr er fort.

Karin Shopen, Vizepräsidentin für Cybersicherheitslösungen und -dienste bei Fortinet, sieht eine Neuausrichtung zwischen cloudbasierter KI und nativ in ein Produkt oder eine Dienstleistung integrierte KI voraus. „Bis 2023“, sagte sie, „hoffen wir, dass CISOs ihre KI neu ausbalancieren, indem sie Lösungen kaufen, die KI vor Ort für verhaltensbasierte Analysen und statische Analysen einsetzen, um Entscheidungen in Echtzeit zu treffen.“ Dynamische KI-Modelle im Cloud-Maßstab, die riesige Mengen globaler Daten sammeln.“ Dies hat bereits begonnen. In den USA wird seit Jahren über den Einsatz KI-basierter Gesichtserkennungstechnologie (FRT) debattiert, wobei viele Städte und Bundesstaaten ihren Einsatz durch die Strafverfolgungsbehörden verbieten oder einschränken. In den Vereinigten Staaten handelt es sich hierbei um eine Verfassungsfrage, die durch den im April 2021 eingebrachten parteiübergreifenden Wyden/Paul-Gesetzentwurf mit dem Titel „Fourth Amendment No Sale Act“ zum Ausdruck kommt.

Dieser Gesetzentwurf würde es der US-Regierung und Strafverfolgungsbehörden verbieten, Benutzerdaten ohne Haftbefehl zu erwerben. Dazu gehört auch die Gesichtsbiometrie. In einer entsprechenden Erklärung machte Wyden deutlich, dass er das FRT-Unternehmen Clearview.AI im Visier hatte: „Der Gesetzentwurf verhindert, dass die Regierung Daten von Clearview.AI kauft.

Zum Zeitpunkt des Schreibens waren dies die Vereinigten Staaten und die Europäische Union.“ diskutieren gemeinsam über eine Zusammenarbeit, um aufbauend auf dem EU-KI-Gesetz und dem US-amerikanischen KI-Bill of Rights web3 ein einheitliches Verständnis der notwendigen KI-Konzepte (einschließlich Vertrauenswürdigkeit, Risiko und Schaden) zu entwickeln, können wir mit der Harmonisierung der einvernehmlich vereinbarten Standards im Jahr 2023 rechnen Fortschritte gemacht.

Aber es gibt noch mehr. „Das NIST AI Risk Management Framework wird im ersten Quartal 2023 veröffentlicht“, sagte Polyakov. „Was das zweite Quartal betrifft, beginnen wir mit der Umsetzung des AI Accountability Act; für den Rest des Jahres haben wir Initiativen des IEEE sowie die geplante EU Trustworthy AI Initiative.“ Das wird also 2023 der Fall sein ein ereignisreiches Jahr für Sicherheit.

„Ich glaube, dass wir bis 2023 eine Konvergenz in der Diskussion über KI, Datenschutz und Risiken erleben werden und darüber, was es in der Praxis bedeutet, Dinge wie KI-Ethik und Bias-Tests durchzuführen“, Christina, Chief Privacy Officer und AI Ethics Council Montgomery sagte IBM-Vorsitzender. „Meine Hoffnung ist, dass wir im Jahr 2023 die Diskussion von der allgemeinen Darstellung von Datenschutz- und KI-Problemen wegbringen können und weg von der Annahme, dass ‚wenn es um Daten oder KI geht, es schlecht und voreingenommen sein muss‘“

Sie denkt das Problem Dabei kommt es oft nicht auf die Technologie an, sondern auf die Art und Weise, wie die Technologie genutzt wird, und auf das Risikoniveau, das das Geschäftsmodell des Unternehmens bestimmt. „Deshalb brauchen wir in diesem Bereich eine präzise und durchdachte Regelung“, sagte sie.

Montgomery gab ein Beispiel. „Unternehmen KI. Aber es gibt auch Firma Y. Anschließend werden diese Daten ohne Zustimmung des Verbrauchers an Dritte, beispielsweise Telemarketer oder politische Lobbygruppen, verkauft, um die Kunden gezielter anzusprechen. Das Geschäftsmodell von Unternehmen X ist viel weniger riskant als das von Unternehmen Y. „

Vorwärts gehen

Künstliche Intelligenz ist letztendlich ein umstrittenes Thema.“ Menschen in Technologie, Forschung und Entwicklung und Wissenschaft werden ihr zujubeln, dass sie Probleme schneller löst, als sich Menschen vorstellen können. Krankheiten heilen, die Welt sicherer machen und letztendlich menschliches Leben auf der Erde retten und verlängern“, sagte Donnie Scott, CEO von Idemia. „Gegner werden sich weiterhin für erhebliche Einschränkungen oder Verbote des Einsatzes künstlicher Intelligenz einsetzen, weil ‚Maschinen auf dem Vormarsch‘ sind.“ könnte die Menschheit bedrohen.

Abschließend fügte er hinzu: „Die Gesellschaft braucht durch unsere gewählten Amtsträger einen Rahmen, der Menschenrechte, Privatsphäre und Sicherheit schützt, um mit dem technologischen Fortschritt Schritt zu halten.“ Bis 2023 werden die Fortschritte in Richtung dieses Rahmens schrittweise erfolgen, die Diskussion zwischen internationalen und nationalen Leitungsgremien muss jedoch intensiviert werden, andernfalls werden lokale Regierungen eingreifen und eine Reihe von Gesetzen erlassen, die die soziale und technologische Entwicklung behindern.

Bezüglich der kommerziellen Nutzung von KI im Unternehmen fügte Montgomery hinzu: „Wir brauchen Web3, und IBM fördert eine präzise Regulierung von Web3, das intelligent und zielgerichtet ist und sich an neu auftretende Bedrohungen anpassen kann.“ Ein Ansatz besteht darin, die Risiken im Mittelpunkt des Geschäftsmodells eines Unternehmens zu betrachten. Wir können und müssen Verbraucher schützen und die Transparenz erhöhen, und wir können dies tun und gleichzeitig Innovationen fördern und unterstützen, damit Unternehmen die Lösungen und Produkte der Zukunft entwickeln können. Dies ist einer von vielen Bereichen, die wir im Jahr 2023 genau beobachten und abwägen werden.

Das obige ist der detaillierte Inhalt vonNetzwerkeinblicke 2023 |. Künstliche Intelligenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage