aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Warum muss die Datenbank + KI integriert werden? Oracle Oracle 23ai gab die Antwort
- Im Jahr 2017 wurde in einem Artikel mit dem Titel „AttentionisAllYouNeed“ eine neue neuronale Netzwerkarchitektur vorgeschlagen: Transformer. Sieben Jahre später ist Transformer zum Kern der generierten KI geworden und führt die heutige Technologiewelle an. Laut Wu Chengyang, Vizepräsident der Yiguwen Company und Geschäftsführer von China, ist das Wichtigste bei der Entstehung einer neuen Technologie nicht die Technologie selbst, sondern der Wert, den die Technologie den Benutzern bringen kann. Im Bereich Daten ist die Frage, wie eine enge Integration mit KI auf Datenebene erfolgen und der Wert von Daten maximiert werden kann, derzeit ein Konsens in der Branche. Die kürzlich veröffentlichte OracleDatabase23ai von Oracle dient genau diesem Zweck
- KI 313 2024-06-04 12:25:07
-
- Spring Boot3.x verbindet sich mit dem Alibaba Cloud-Gesichtserkennungsdienst, um die Gesichtserkennung zu implementieren
- Dieses Thema ist einer ausführlichen Diskussion darüber gewidmet, wie effiziente Gesichtserkennungs- und Gesichtserkennungssysteme mithilfe des SpringBoot3.x-Frameworks und der OpenCV-Bibliothek implementiert werden können. Anhand von 10 systematischen Artikeln, von grundlegenden Konzepten bis hin zu fortgeschrittenen Anwendungen, kombiniert mit Codebeispielen und praktischen Fällen, werden wir Sie schrittweise dabei unterstützen, den gesamten Prozess des Aufbaus eines vollständigen Gesichtserkennungs- und -erkennungssystems von Grund auf zu meistern. Der Alibaba Cloud-Gesichtserkennungsdienst ist ein auf Deep Learning basierender künstlicher Intelligenzdienst, der Funktionen wie Gesichtserkennung, Gesichtsattributanalyse und Gesichtsvergleich bereitstellen kann. Im Vergleich zu anderen Diensten ist Alibaba Cloud aufgrund seiner extrem hohen Genauigkeit, geringen Latenz, starken technischen Unterstützung und Compliance zur ersten Wahl vieler Unternehmen in China geworden. Zu seinen Vorteilen gehören: Hohe Genauigkeit: Alibaba verlässt sich auf Alibabas starke Forschungskapazitäten im Bereich der künstlichen Intelligenz
- KI 309 2024-06-04 11:53:12
-
- Angetrieben durch generative KI werden die weltweiten Ausgaben für öffentliche Clouds im Jahr 2024 auf 675,4 Milliarden US-Dollar steigen
- Laut der jüngsten Prognose von Gartner werden die Ausgaben der weltweiten Nutzer für öffentliche Cloud-Dienste in diesem Jahr um 6,754 Milliarden US-Dollar steigen, angetrieben durch künstliche Intelligenz in der Produktion (GenAI) und Anwendungsmodernisierung. Diese Zahl stellt einen Anstieg von 20,4 % im Vergleich zu den 5,61 Milliarden US-Dollar im letzten Jahr dar. Es wird erwartet, dass die weltweiten Ausgaben für öffentliche Clouds bis 2025 825 Milliarden US-Dollar erreichen werden (siehe Abbildung 1), und dieser anhaltende Wachstumstrend zeigt keine Anzeichen eines Abklingens. Diese Zahl markiert einen neuen Meilenstein im Bereich Public Cloud Services. Aus vielen Gründen erfreuen sich öffentliche Cloud-Dienste bei Unternehmen immer größerer Beliebtheit. Erstens bietet es Elastizität und Flexibilität und ermöglicht es Unternehmen, ihre Rechen- und Speicherressourcen je nach tatsächlichem Bedarf zu vergrößern oder zu verkleinern. Zweitens können öffentliche Cloud-Dienste mehr bieten
- KI 772 2024-06-04 10:26:39
-
- OpenAI, Microsoft, Zhipu AI und weitere 16 Unternehmen auf der ganzen Welt haben das Frontier Artificial Intelligence Security Commitment unterzeichnet
- Die Sicherheitsfragen der künstlichen Intelligenz (KI) werden weltweit mit beispielloser Aufmerksamkeit diskutiert. Bevor der OpenAI-Gründer und Chefwissenschaftler Ilya Sutskever und der Co-Leiter des OpenAI Super Alignment-Teams, Jan Leike, nacheinander OpenAI verließen, veröffentlichte Leike sogar eine Reihe von Beiträgen auf X, in denen er sagte, dass OpenAI und seine Führung die Sicherheit zugunsten glänzender Produkte ignorierten. Dies hat in der Branche große Aufmerksamkeit erregt und die Ernsthaftigkeit der aktuellen KI-Sicherheitsprobleme in gewissem Maße verdeutlicht. Am 21. Mai forderte ein im Science-Magazin veröffentlichter Artikel die Staats- und Regierungschefs der Welt dazu auf, stärker gegen die Risiken künstlicher Intelligenz (KI) vorzugehen. Der Artikel weist darauf hin, dass maßgebliche Wissenschaftler und
- KI 383 2024-06-03 22:24:44
-
- Erklärbare KI: Erklären komplexer KI/ML-Modelle
- Übersetzer |. Rezensiert von Li Rui |. Chonglou Modelle für künstliche Intelligenz (KI) und maschinelles Lernen (ML) werden heutzutage immer komplexer, und die von diesen Modellen erzeugten Ergebnisse sind eine Blackbox, die den Stakeholdern nicht erklärt werden kann. Explainable AI (XAI) zielt darauf ab, dieses Problem zu lösen, indem es Stakeholdern ermöglicht, die Funktionsweise dieser Modelle zu verstehen, sicherzustellen, dass sie verstehen, wie diese Modelle tatsächlich Entscheidungen treffen, und Transparenz in KI-Systemen, Vertrauen und Verantwortlichkeit zur Lösung dieses Problems gewährleistet. In diesem Artikel werden verschiedene Techniken der erklärbaren künstlichen Intelligenz (XAI) untersucht, um ihre zugrunde liegenden Prinzipien zu veranschaulichen. Mehrere Gründe, warum erklärbare KI von entscheidender Bedeutung ist. Vertrauen und Transparenz: Damit KI-Systeme allgemein akzeptiert und vertrauenswürdig sind, müssen Benutzer verstehen, wie Entscheidungen getroffen werden
- KI 800 2024-06-03 22:08:09
-
- CVPR 2024 |. Enthält der synthetische Videodatensatz nur Einzelpersonendaten? M3Act löst das Problem der Kennzeichnung des Verhaltens von Menschenmengen
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Papierlink: https://arxiv.org/abs/2306.16772 Projektlink: https://cjerry1243.github.io/M3Act/ Papiertitel: M3Act:
- KI 581 2024-06-03 22:02:59
-
- Wie kann KI Roboter autonomer und anpassungsfähiger machen?
- Im Bereich der industriellen Automatisierungstechnik gibt es zwei aktuelle Hotspots, die kaum zu ignorieren sind: Künstliche Intelligenz (KI) und Nvidia. Ändern Sie nicht die Bedeutung des ursprünglichen Inhalts, optimieren Sie den Inhalt, schreiben Sie den Inhalt neu, fahren Sie nicht fort: „Darüber hinaus sind beide eng miteinander verbunden, da Nvidia nicht auf seine ursprüngliche Grafikverarbeitungseinheit (GPU) beschränkt ist ) erweitert es seine GPU. Die Technologie erstreckt sich auf den Bereich der digitalen Zwillinge und ist eng mit neuen KI-Technologien verbunden. „Vor kurzem hat NVIDIA eine Zusammenarbeit mit vielen Industrieunternehmen geschlossen, darunter führende Industrieautomatisierungsunternehmen wie Aveva, Rockwell Automation und Siemens und Schneider Electric sowie Teradyne Robotics und seine Unternehmen MiR und Universal Robots. Kürzlich hat Nvidia gesammelt
- KI 1063 2024-06-03 19:18:05
-
- Hype und Realität von KI-Agenten: GPT-4 kann dies nicht einmal unterstützen und die Erfolgsquote realer Aufgaben beträgt weniger als 15 %
- Aufgrund der kontinuierlichen Weiterentwicklung und Selbstinnovation großer Sprachmodelle wurden Leistung, Genauigkeit und Stabilität erheblich verbessert, was durch verschiedene Benchmark-Problemsätze bestätigt wurde. Bei bestehenden LLM-Versionen scheinen die umfassenden Funktionen jedoch nicht in der Lage zu sein, KI-Agenten vollständig zu unterstützen. Multimodale, Multi-Task- und Multi-Domain-Inferenz sind zu notwendigen Anforderungen für KI-Agenten im öffentlichen Medienraum geworden, aber die tatsächlichen Auswirkungen, die sich in bestimmten funktionalen Praktiken zeigen, variieren stark. Dies scheint alle KI-Roboter-Startups und großen Technologiegiganten noch einmal daran zu erinnern, die Realität zu erkennen: Seien Sie bodenständiger, breiten Sie Ihr Geschäft nicht zu sehr aus und beginnen Sie mit KI-Erweiterungsfunktionen. Kürzlich wurde in einem Blog über die Kluft zwischen der Propaganda und der tatsächlichen Leistung von KI-Agenten ein Punkt hervorgehoben:
- KI 1005 2024-06-03 18:38:42
-
- Lesen Sie diesen Artikel, um mehrere gängige LangChain-Alternativen zu verstehen
- Hallo Leute, ich bin Luga. Heute werden wir über Technologien im Zusammenhang mit dem ökologischen Bereich der künstlichen Intelligenz (KI) sprechen – dem LLM-Entwicklungsframework. Im Bereich der LLM-Anwendungsentwicklung (Large Scale Language Model) spielen Open-Source-Frameworks eine wichtige Rolle und bieten den meisten Entwicklern leistungsstarke Toolunterstützung. Als führendes Unternehmen auf diesem Gebiet hat LangChain viel Lob für sein innovatives Design und seine umfassende Funktionalität erhalten. Gleichzeitig sind aber auch einige alternative Frameworks entstanden, die bessere Auswahlmöglichkeiten für die Bedürfnisse in verschiedenen Szenarien bieten. Schließlich unterliegt jedes Framework zwangsläufig bestimmten Einschränkungen. Beispielsweise kann die Geschwindigkeitsabstraktion von LangChain in einigen Fällen den Einstieg erschweren, das Debugging-Erlebnis muss verbessert werden und auch die Qualität einiger Codes verdient eine Verbesserung.
- KI 1399 2024-06-03 18:25:26
-
- 2024 Future Automobile Pioneer Conference丨Gu Weihao: Ein großes KI-Modell ist der einzige Weg, um autonomes Fahren zu realisieren
- Am 1. Juni wurde Gu Weihao, CEO von Hao Mo Zhixing, zur (zweiten) Future Automobile Pioneers Conference 2024 eingeladen und hielt eine Grundsatzrede mit dem Titel „Im Zeitalter des autonomen Fahrens 3.0 gestalten große Modelle die Route der intelligenten Automobile neu“. Gu Weihao sagte: „Große KI-Modelle sind die einzige Möglichkeit, autonomes Fahren wirklich zu realisieren, und End-to-End wird in Zukunft eine sehr wichtige technische Richtung sein. End-to-End ist nicht nur die Optimierung des Modellendes, erfordert aber auch die Bereitstellung von Daten und die Unterstützung von Rechenleistung. „Haimo DriveGPT erforscht seit 2022 End-to-End-Lösungen, und sobald sie angewendet werden, werden sie sehr erstaunliche Ergebnisse bringen.“ wurde zur Teilnahme an der Future Automobile Pioneer Conference 2024 mit dem Thema „Kampf um die Gegenwart“ im Jahr 6 eingeladen
- KI 866 2024-06-03 17:18:53
-
- OpenAI und Google haben an zwei aufeinanderfolgenden Tagen große Schritte unternommen, beide wollen KI-Assistenten „intelligent' machen
- Nachdem ich gestern die Frühjahrsveröffentlichung von OpenAI gesehen habe, ist es nicht schwer zu erraten, dass es auf der heutigen Google I/O-Konferenz definitiv eine Einführung in KI-Assistenten geben wird. Schließlich hat Altman, der GPT-4o vor der Google I/O-Konferenz veröffentlichte, volle Relevanz gezeigt. Mit Altmans Methoden ist er natürlich zuversichtlich, präzise Schläge zu erzielen und diese „Rot-Blau-Konfrontation“ zu Ende zu bringen. Tatsächlich lud Google-CEO Pichai den neuen KI-Assistenten ProjectAstra von DeepMind ein, der von Demis vorgestellt wurde, der sein Debüt auf der Google I/O-Konferenz gab. Was ist ProjectAstra? ProjektAstr
- KI 300 2024-06-03 15:23:07
-
- Grundlegende Fähigkeiten und Eigenschaften eines Chief Artificial Intelligence Officer
- Chief Artificial Intelligence Officers (CAIOs) benötigen mehrdimensionale Fähigkeiten, um Innovationen voranzutreiben, eine KI-fähige Kultur aufzubauen und zu führen und komplexe und sich schnell entwickelnde Technologien zu nutzen, um greifbare organisatorische Ergebnisse zu erzielen. Darüber hinaus sollten CAIOs über starke Führungsqualitäten verfügen und in der Lage sein, die strategische Planung und Implementierung von KI in einem sich ständig verändernden Umfeld voranzutreiben. CAIOs erfordern fundierte Geschäftskenntnisse und technischen Hintergrund, um den rasanten Aufstieg der Versöhnung zu verstehen. KI, insbesondere generative KI, hat viele Organisationen dazu veranlasst, Chief Artificial Intelligence Officers (CAIOs) einzustellen oder zu befördern. Bisher konzentrierten sich viele Positionen auf Technologieanbieter, und nach der jüngsten Verabschiedung mehrerer KI-Gesetze entstehen ähnliche Positionen auch bei Regierungsstellen. Doch in den nächsten Jahren wird die Zahl der CAIO-Positionen in Unternehmensorganisationen voraussichtlich weiter zunehmen.
- KI 812 2024-06-03 12:32:13
-
- Im Gespräch mit der Maschine: Zehn Geheimnisse der schnellen Technik gelüftet
- Um mehr über AIGC zu erfahren, besuchen Sie bitte: 51CTOAI.x-Community https://www.51cto.com/aigc/ Die Kraft von Eingabeaufforderungen ist erstaunlich. Wir müssen nur ein paar Wörter wegwerfen, die der menschlichen Sprache nahe kommen, um eine Wohltat zu erhalten. formatierte und strukturierte Antworten. Kein Thema ist unklar und keine Tatsache unerreichbar. Zumindest solange es Teil des Trainingskorpus ist und vom Schattencontroller des Modells (ShadowyController) genehmigt wird, können wir die Antwort mit einer einfachen Eingabeaufforderung erhalten. Einige Menschen bemerken jedoch, dass die Magie von Aufforderungen nicht absolut ist. Unsere Hinweise führen nicht immer zu den gewünschten Ergebnissen. Einige Eingabeaufforderungssprachen sind sogar besser als andere
- KI 378 2024-06-03 10:53:11
-
- Microsoft stellt einen Investitionsplan für KI-Infrastruktur in Höhe von 3,3 Milliarden US-Dollar zur Erweiterung der Rechenzentrumskapazität in den Vereinigten Staaten vor
- Microsoft wird bis Ende 2026 eine vierteilige Investitionsstrategie starten. Das Technologieunternehmen wird einen Rechenzentrumscampus errichten und plant, bis 2030 landesweit mehr als 10 Millionen Menschen in GenAI weiterzubilden. AWS, Google und Microsoft entwickeln umfassende Infrastrukturpläne, um die wachsende Nachfrage nach Rechenleistung zu decken, und investieren in Bundesstaaten in den Vereinigten Staaten. Anfang des Jahres kündigte AWS eine Investition von 210 Millionen US-Dollar in Rechenzentren in Indonesien und Mississippi an. Dies ist die größte Kapitalinvestition in beiden Bundesstaaten. Google gab letzten Monat bekannt, dass es geplant sei, 3 Milliarden US-Dollar in den Bau und die Erweiterung von Rechenzentrumscampussen in Virginia und Indiana zu investieren. Ein im Oktober von SynergyResearchGroup veröffentlichter Bericht
- KI 1120 2024-06-03 10:52:37
-
- Ein amerikanischer Professor trainierte mit seiner zweijährigen Tochter ein KI-Modell für den Auftritt in „Science'! Junge Menschen nutzen am Kopf angebrachte Kameras, um neue KI zu trainieren
- Unglaublich: Um ein KI-Modell zu trainieren, befestigte ein Professor der State University of New York seiner Tochter eine GoPro-ähnliche Kamera an den Kopf! Obwohl es unglaublich klingt, ist das Verhalten dieses Professors tatsächlich begründet. Um das komplexe neuronale Netzwerk hinter LLM zu trainieren, sind umfangreiche Daten erforderlich. Ist unser aktueller LLM-Ausbildungsprozess unbedingt der einfachste und effizienteste Weg? Sicherlich nicht! Wissenschaftler haben herausgefunden, dass das Gehirn von Kleinkindern wie ein Schwamm Wasser aufnimmt und so schnell ein zusammenhängendes Weltbild bildet. Obwohl LLM zeitweise erstaunliche Leistungen erbringt, werden menschliche Kinder mit der Zeit schlauer und kreativer als das Modell! Das Geheimnis, dass Kinder die Sprache besser trainieren. Wenn Wissenschaftler über die Lösung verwirrt sind,
- KI 700 2024-06-03 10:08:09