Inhaltsverzeichnis
Neue Technologie eröffnet neue Möglichkeiten
Alle digitalen Assets sind Cloud-Assets
Aufbau einer neuen Beziehung zwischen Menschen und Bildern
Leitprinzipien für bessere Technologie aufbauen
„Mit Hilfe von Cloud-Ressourcen kann jeder seine Geschichte von überall auf der Welt erzählen. Die Zusammenarbeit in allen Phasen ist überregional möglich und jeder kann jederzeit Meinungen austauschen und Ideen einbringen. „
Keane betonte: „Sie können all diese Daten verwenden, um die endgültigen Medien zu polieren.“
Ja, diese professionellen Synchronsprecher sind auf jeden Fall talentiert und können mit ihren faszinierenden Darbietungen und Klangfarben oft Farbe in die Werke bringen. Verglichen mit ihren Ergebnissen ist KI-generiertes Erzählen noch Zukunftsmusik.
Heim Technologie-Peripheriegeräte KI KI ist überall: Neue Veränderungen in der Film- und Fernsehproduktion

KI ist überall: Neue Veränderungen in der Film- und Fernsehproduktion

Apr 26, 2023 pm 04:52 PM
云计算 ai

KI ist überall: Neue Veränderungen in der Film- und Fernsehproduktion

Heutzutage scheinen Diskussionen über KI und Cloud Computing nicht nur in Nischentechnologie- und Investmentkreisen allgegenwärtig zu sein. Unter ihnen ist die Unterhaltungsbranche die verbreitetste und einflussreichste Ebene. Im Unterhaltungsbereich sind kreative und geschäftliche Praktiker sehr besorgt über die Auswirkungen, die KI und Cloud auf ihre Kompetenzreserven haben werden, aber gleichzeitig sind sie auch voller Erwartungen hinsichtlich der unbegrenzten Möglichkeiten, nachdem die Technologie populär geworden ist.

Beim jüngsten Sundance Film Festival tauschten viele Regisseure, Redakteure und andere Praktiker ihre Ansichten über die Auswirkungen von KI und Cloud-Diensten auf die Film- und Fernsehproduktion aus. Darüber hinaus teilten Adobe-Führungskräfte mit, wie diese beiden neuen Kräfte die bereits weit verbreiteten Kreativitätstools wie Premiere Pro auf die nächste Stufe heben können.

Dies ist eine bemerkenswerte und dynamische Zeit mit rasanter Entwicklung, positiven und negativen Vorhersagen, die auf und ab gehen, und großen Chancen, die Art und Weise, wie Film- und Fernsehprogramme produziert werden, neu zu gestalten. Vielleicht werden Film- und Fernsehinhalte nach hundert Jahren der Stabilität nach ihrer Geburt eine disruptive Produktionsrevolution einleiten.

Der Einfluss von KI und Cloud Computing auf die Film- und Fernsehbranche zeichnet sich gerade erst ab. Nehmen Sie Comcast als Beispiel. Sie haben gerade den Emmy Technology Award für den Einsatz von KI zur schnellen Erstellung von Sportvideos gewonnen.

Stars und ihre Agenten haben auch bemerkt, dass KI-Technologie in allen Bereichen der gesamten Film- und Fernsehbranche eine Rolle spielt.

Zum Beispiel hat die Agentur CAA eine strategische Partnerschaft mit Metaphysic unterzeichnet, wobei letzteres „De-Aging“-Tools bereitstellt, die den Schauspielern im Film dabei helfen können, sich zu „verjüngen“. Durch die Verarbeitung von Werkzeugen beginnen die von den beiden Stars Tom Hanks und Robin Wright gespielten Charaktere bereits im Teenageralter und verändern mit zunehmendem Alter ihr Aussehen.

Diese Art von Technologie ist für Agenten von großer Bedeutung: Ihre prominenten Kunden verfügen plötzlich über die Vitalität von Auftritten über einen längeren Zeitraum hinweg.

Neue Technologie eröffnet neue Möglichkeiten

Die tägliche Arbeit von Film- und Fernsehprojekten ist jedoch komplex und umständlich und muss durch die Zusammenarbeit von Profis wie Redakteuren und Regisseuren erledigt werden. Durch die Kommunikation mit Praktikern beim Sundance Film Festival haben wir herausgefunden, dass sie Premiere Pro hauptsächlich als Hochgeschwindigkeits-Kollaborationsplattform betrachten, um immer mehr realisierbare Einsatzmöglichkeiten und Möglichkeiten zu schaffen.

Meagan Keane, Leiter Produktmarketing für Pro Video bei Adobe, betonte, als er über KI sprach: „Mit Blick auf die Zukunft der Filmproduktion wird KI eine wichtige Kraft sein, die verschiedene Möglichkeiten eröffnet. Wir glauben, dass dies eine Zukunft sein wird.“ wo jeder mitmachen kann.“

Ihrer Ansicht nach besteht die Kernbedeutung von KI darin, die menschliche Kreativität zu steigern und nicht bestehende Praktiker zu ersetzen. Leistungsstarke Tools wie KI können Praktikern dabei helfen, Technologien, Fähigkeiten und Ressourcen, über die sie nicht verfügen, einfach zu nutzen, um ansprechendere Erfahrungen in verschiedenen Medien wie Videos zu präsentieren. Selbst für erfahrene professionelle Filmemacher hat die KI die Qual sich wiederholender Aufgaben, wie z. B. die Notwendigkeit, vor Ort zu filmen, erheblich reduziert, sodass sich Teammitglieder wie Redakteure mehr auf die Gesamtplanung und das Design des Films konzentrieren können.

Michael Cioni, Senior Director of Global Innovation bei Adobe, war schon immer ein Meister der Kamera-Cloud-Docking-Technologie für Adobe Frame.io. In seinen Augen bietet KI endlosen Raum für Fantasie.

Alle digitalen Assets sind Cloud-Assets

Die Erklärung, die er gab, ist nicht kompliziert: „Bis 2031 werden alle Medien- und Unterhaltungs-Assets in der Cloud generiert und durch Cloud Computing generiert. Das wird definitiv eine Tatsache, ich nenne es eine.“ Technologische Sicherheit: Alle vom Gerät generierten elektronischen Assets sind Cloud-Assets. Im Gegensatz dazu werden lokale Festplatten, Filme, Videobänder und Speicherkarten ersetzt.

Ich glaube, dass jeder mit dem Medienkonvertierungsprozess vertraut ist. Der erste, der Cloud und KI nutzt, sind Textdokumente. Heutzutage werden diese Art von Daten hauptsächlich in Cloud-Diensten (wie Google Docs, Apple Pages, Microsoft Word, Adobe Acrobat usw.) zum Teilen und Bearbeiten gespeichert. Das Aufkommen von Diensten wie Spotify, Apple Music, Amazon Music und Tidal hat es Hunderten Millionen Benutzern außerdem ermöglicht, Musikwerke in der Cloud anzuhören, zu erstellen, mit ihnen zusammenzuarbeiten und zu verkaufen. Nun ist dieser Trend dabei, unser komplexestes Medium zu erfassen: Video.

Cioni erklärte: „Wir nehmen die Produktion von Filmszenen als Beispiel. Nachdem wir die Drehszene spezifiziert haben, können wir sie mit natürlicher Sprache weiter beschreiben, wie zum Beispiel „Es beginnt zu regnen.“ Zu diesem Zeitpunkt wird der Regen erscheinen der Schuss und das Geplapper. Sie können auch sagen: „Es fängt an zu schneien“, und die KI fügt den Effekt von Schnee hinzu, was ohne technische Kenntnisse erreicht werden kann. Eine solche Handlung, die es früher nur in Science-Fiction-Romanen gab, ist nun Realität geworden. Dieser Effekt war in der Vergangenheit bei statischen Medien (Fotos) möglich, und wir wissen, dass er irgendwann auch auf Videos übergehen wird. Deshalb müssen wir unser Denken ändern und darüber nachdenken, wie wir in diesem Zusammenhang unsere Kreativität fördern können. „

All dies wird die Grenzen zwischen verschiedenen Funktionen verwischen und die Art und Weise der Videoerstellung in Zukunft völlig verändern.

Viele junge Filmemacher sind es bereits gewohnt, diese Grenzen zu überschreiten, bei Projekten ein bisschen von allem zu berühren und auf digitalen Plattformen zusammenzuarbeiten. Durch die Realisierung von Kamera-Cloud-Docking und KI-Intelligenz können Produzenten bereits eine Szene auswählen und dann schnell eine „Kombination“ in Form eines Rohschnitts als Referenz generieren, um festzustellen, ob die aktuelle Szene ausreicht oder ob zusätzliche Aufnahmen erforderlich sind. .

Sie können auch eine schnelle grobe Bearbeitung grundlegender visueller Effekte, Farbkorrekturen und sogar Sounddesigns durchführen und diese dann zur Feinabstimmung an Experten übergeben, nachdem sie sich für die Verwendung entschieden haben. Daher ist Premiere für viele Filmschaffende nicht mehr ein nichtlineares Videobearbeitungstool im herkömmlichen Sinne.

Aufbau einer neuen Beziehung zwischen Menschen und Bildern

Maximilien Van Aertryck, Co-Regisseur des Dokumentarfilms „The Amazing Machine“, der mit dem Sundance Special Jury Creative Vision Award ausgezeichnet wurde, glaubt: „Das ist unsere größte Leidenschaft – die Erforschung der Beziehung.“ Wir sind wie Anthropologen, die Freude daran haben, zwischen Menschen und der Kamera zu forschen und zu erfahren, wie sich dies auf die Gesellschaft als Ganzes auswirkt. Axel Danielson, ein weiterer Co-Regisseur/Herausgeber des Films, sagte, wie der klassische Witz lautet: „Wem wollen Sie glauben? Mir oder Ihren unzuverlässigen Augen?“ Tatsächlich müssen wir zunehmend erkennen, dass das Sehen nicht unbedingt der Fall ist Selbst Videodaten kann man nicht trauen.

Danielson sagte: „Unser Film gibt nicht viele Antworten, er wirft nur Fragen auf. Die einzige Antwort, die wir kennen, ist, dass die Menschen als soziales Kollektiv die von den Medien verbreiteten Nachrichten ernsthafter betrachten müssen.“ Dieser Film Der Film stellt Videodaten aus mehr als einem Jahrhundert zusammen, von denen einige bedeutsam und andere ironisch und lustig sind. Und was noch wichtiger ist: In den Händen großer und schrecklicher Schöpfer können diesem Inhalt ganz unterschiedliche Bedeutungen und Kräfte verliehen werden.

In The Amazing Machine haben Van Aertryck und Danielson mehrere Jahre damit verbracht, Informationen über die komplexe Beziehung zwischen Menschen, Kameras und den von ihnen aufgenommenen Bildern zu sammeln.

Van Aertryck sagte ganz offen: „Wir gehören nicht zu den gut ausgebildeten Bearbeitungsexperten. Wir machten uns alleine an die Arbeit, weil es wirklich niemanden sonst gab. Adobe wurde für uns zum perfekten Werkzeug, weil wir alle Materialien hineinwerfen können.“ und teilen Sie sie einfach miteinander.“ Werkzeuge zum Austauschen von Clips und Clips. Aber der gesamte Prozess verlief reibungslos, als ob alle zusammen saßen. Darin besteht auch die Bedeutung von Cloud-Funktionen: Solange sie es benötigen und dazu bereit sind, kann jeder Ersteller aus der ganzen Welt jederzeit und überall an der Arbeit teilnehmen.

Crystal Kayiza, die Herausgeberin und Regisseurin von „Rest Stop“, die beim diesjährigen Sundance Film Festival den Preis der U.S. Short Film Jury gewann, sagte: „Online-Sharing ermöglicht mehr Versuche. Ich kann nach Oklahoma zurückkehren, wann immer ich will.“ Homer, ohne die Erstellung des Films zu beeinträchtigen.“

Letztes Jahr hat Adobe neue Cloud-Direktverbindungsfunktionen für viele gängige Kameras und andere Produktionsgeräte bereitgestellt, mit denen Inhalte während der Videoaufnahme übertragen werden können. Dadurch können Redakteure, Produzenten, Studioleiter und andere Postproduktionsprofis innerhalb von Minuten nach der Aufnahme mit der Bearbeitung des Filmmaterials beginnen.

Selbst in kleinen Produktionsvideos können diese Techniken eingesetzt werden. Daniela T. Quiroz, die den Sundance Editing Award gewann, sagte, dass die direkte Cloud-Verbindung für die Produktion des Films „Mariachi“, insbesondere für die frühen Produktionen, von entscheidender Bedeutung sei.

Als die Filmregisseure Alejandra Vasquez und Sam Osborn Aufnahmen von Tanzwettbewerben an der Rio Grande Valley High School in Texas drehten, hatte Quiroz, der in Brooklyn, New York lebt, bereits mit dem Schnitt begonnen. Da sie schnell Material für die frühen Dreharbeiten erhält, kann sie diese schnell verarbeiten und mit den Regisseuren über die Schwerpunkte der nächsten Dreharbeiten sprechen.

Quiroz sagte: „Als Redakteure haben wir das Glück, Zeuge des ersten Auftritts der Schauspieler vor der Kamera zu sein. Sie werden Zeuge Ihrer Lieblingscharaktere und der Musik, die mitschwingt

Bei den Dreharbeiten zu „Sometimes I Think About Death“ fehlte sie völlig.“ Solche Bedingungen. Der Film wurde an der abgelegenen Küste Oregons gedreht. Da keine digitalen Samples zur sofortigen Betrachtung verfügbar waren, musste das täglich aufgenommene Filmmaterial auf einer Festplatte gespeichert und über Nacht an eine digitale Verarbeitungsanlage in New Orleans gesendet werden. Redakteur Ryan Kendrick sagte, dass das Aufkommen neuer Technologien tatsächlich eine gute Nachricht für Praktiker sei.

Beispiellose Zusammenarbeit

Jetzt kann Kendrick von seinem Zuhause in Nashville aus remote mit dem Regisseur und anderen Kollegen an anderen Orten zusammenarbeiten.

Kendrick rief aus: „Ich kann mit meinen Partnern zu Hause arbeiten, so weit voneinander entfernt, was so cool ist. Das hat auch die Art und Weise verändert, wie Regisseure, Fotografen, Redakteure und andere Produktionsmitarbeiter miteinander interagieren.“

In der Vergangenheit „hatten die Redakteure immer das Gefühl, weit weg vom Set zu sein. Jetzt ist dieses Gefühl der Verbundenheit enger und man fühlt sich nicht von allem getrennt. Jetzt ist der Schnittraum zu einem Ort des Ausprobierens und Irrens geworden.“ , und ich kann es. Es spielt keine Rolle, ob Sie hier etwas ausprobieren, auch wenn es das Gegenteil von dem ist, was Sie erwartet haben. Ich sage immer: „Wer weiß, lass es uns versuchen.“

Kendrick, Lambert und Fotografie in „Sometimes I Denken Sie an den Tod.“ Regisseur Dustin Lane hält vor Beginn der eigentlichen Dreharbeiten eine wöchentliche Diskussionsfrequenz ein, in der Hoffnung, mögliche Probleme im Voraus zu vermeiden

„Wir werden mögliche Bearbeitungsprobleme besprechen. Wenn man das Drehbuch bekommt, ist es am schwierigsten, sich den Übergang von der Handlung zum nächsten Teil vorzustellen. Konkret machen wir die Figur immer in der Situation, nicht im „Film“. Deshalb haben wir viel darüber gesprochen, herauszufinden, wie wir das emotionale Gewicht der Bilder beibehalten können. „

Kendrick sagte, dass die Camera-to-Cloud-Technologie den Drehzyklus beschleunigt, sodass sie auch bei Projekten wie kommerzieller Werbung und Musikvideos eine wichtige Rolle spielen kann

„Viele Elemente in kommerzieller Werbung ändern sich schnell.“ „Gerade mit der Unterstützung der Cloud-Architektur können Projektmaterialien reibungslos zwischen Premiere Pro, Frame.io und After Effects übertragen werden.

“ Dies ist das größte Problem, das Film- und Fernsehfachleute in den letzten fünf Jahren beseitigt haben Verzögerungen im Produktionsprozess. „

Leitprinzipien für bessere Technologie aufbauen

Keane sagte, dass der Technologieansatz von Adobe auf fünf „Leitprinzipien“ basiert, darunter: Workflow, Medien, Zusammenarbeit, Produktivität und Sicherheit.

„Wir werden KI wirklich in die „Produktivität“ integrieren. Dies soll nicht die Kreativität ersetzen, sondern die komplexen und umständlichen Aspekte der Vergangenheit ersetzen. „

Ganz Hollywood widmet dem sich schnell verändernden Bereich der KI große Aufmerksamkeit. Es gibt Berichte, dass der Vorstand von SAG-AFTRA, Hollywoods größter Gewerkschaft, plant, in der nächsten Runde der Vertragsverhandlungen Klauseln zu Bildrechtsfragen einzuführen -das heißt, die Auswirkungen der KI-Technologie auf die Gewerkschaft einzuschränken. Die Nutzung des Aussehens, der Stimme oder anderer Merkmale der Mitglieder

Nach den aktuellen Stellungnahmeentwürfen zu urteilen, „jede Form im Vertrag, die darauf abzielt, die Leistungsrechte von virtuellen zu kontrollieren.“ Akteure“ muss im Voraus mit der Gewerkschaft vereinbart werden, andernfalls gilt es als ungültig und wird nicht durchgesetzt. „

Angesichts dieses komplexen neuen Themas beginnt in diesem Frühjahr eine neue Runde von Vertragsverhandlungen. Alte, mittlere und junge Schauspieler, die ihre Karriere verlängern möchten, sind möglicherweise bereit, einige der Vorteile der KI-Technologie zu akzeptieren , aber ohne starken Vertragsschutz werden die Produzenten wahrscheinlich direkt KI-Technologie nutzen, um echte Schauspieler zu simulieren und hohe Gagen zu vermeiden

Ein Fanprojekt auf Twitch scheint auf eine solche Zukunft hinzuweisen. Der endlose Strom von KI-generiertem „Seinfeld“. Obwohl die Grafiken schrecklich sind, die computersynthetisierten Sounds lächerlich sind und die Qualität der Witze nicht schmeichelhaft ist, wird dies alles mit der Verbesserung der KI-Technologie möglicherweise nicht mehr möglich sein Noch wichtiger ist, dass der Schauspieler, der die Rolle des Jerry spielte, sich für die Verteidigung seiner Rechte einsetzte und damit das Ende dieses „endlosen“ Dramas bewirkte, das die Tür zu einer neuen Welt der Kreativität öffnete Keane von Adobe glaubt offenbar, dass KI und Cloud Computing ein breiteres Spektrum an kreativen Werkzeugen mit sich bringen und die Abhängigkeit von großen Serverfarmen für Bilder, Töne, visuelle Effekte und andere Elemente beseitigen werden, sodass jeder über die Rechenleistung verfügt, um hervorragende Produkte zu produzieren Videoinhalte und Sicherheitsgrundlage.

„Mit Hilfe von Cloud-Ressourcen kann jeder seine Geschichte von überall auf der Welt erzählen. Die Zusammenarbeit in allen Phasen ist überregional möglich und jeder kann jederzeit Meinungen austauschen und Ideen einbringen. „

Sicherheit ist auch für Filmemacher ein großes Thema, das nicht ignoriert werden darf. Keane erwähnte den Film „Plan C“, einen Dokumentarfilm über Abtreibung. Die Schöpfer müssen die Gesichter und Stimmen der Befragten stärker verwischen und gleichzeitig sicherstellen, dass dies der Fall ist Das gesammelte Originalmaterial wird niemals durchgesickert

Darüber hinaus hat die Verbreitung generativer KI, Deep Fakes und damit verbundener Probleme die Authentizität von Bildinhalten wichtiger denn je gemacht, Adobe, die New York Times, Canon und viele andere Medien Technologieunternehmen haben sich der „Content Authenticity Initiative“ angeschlossen

Aber Keanu Reeves, der Schauspieler des Science-Fiction-Klassikers „The Matrix“, ist in dieser Frage nicht optimistisch. Er sagte in dem Interview, dass der Einsatz von KI zur böswilligen Generierung von Videos durch Deep Fakes sind „sehr beängstigend“. Die von Reeves unterzeichneten Verträge enthalten oft entsprechende Klauseln, die es den Produzenten verbieten, seine Auftritte digital zu manipulieren. Dies geht auf einen Film vor Jahrzehnten zurück, als die Produzenten Spezialeffekte verwendeten, um ihm eine Träne ins Gesicht zu zaubern

.

Reeves sagte: „Diese Situation, in der Schauspieler ihre Autonomie verlieren, ist frustrierend. Wir können akzeptieren, dass unsere Performance-Clips bearbeitet werden, aber der Inhalt ist zumindest wahr. Sobald es das Stadium der Deep Fakes erreicht, hat der Schauspieler überhaupt keine Autonomie mehr.“ . Das ist sehr beängstigend und ich freue mich darauf, zu sehen, wie die Menschen auf diese Art von Technologie reagieren. Grundlage hierfür ist die Textbearbeitungsfunktion, die es Nutzern ermöglicht, mithilfe der Bearbeitungs-KI Dialogtexte aus Videos zu extrahieren und zu transkribieren und so eine Videobearbeitung zu realisieren. KI kann auch wichtige Soundbits hervorheben, einschließlich Rohschnittreferenzen für die endgültige Version, und schlüsselwortbasierte Suchbegriffe generieren, um schnell zu bestimmten Clips oder Dialogen zu navigieren. Es besteht kein Zweifel, dass dies eine neue und leistungsfähigere Möglichkeit zur Verwaltung von Projektmaterialien und -daten sein wird.

Keane betonte: „Sie können all diese Daten verwenden, um die endgültigen Medien zu polieren.“

Einige kleine Hersteller haben ebenfalls eine ähnliche Technologie auf den Markt gebracht. Sowohl Descript als auch Podcastle bieten Tools zum Erstellen digitaler Versionen von Sprache, mit denen Skripte in Textform gelesen werden können, ohne dass eine zusätzliche Bearbeitung erforderlich ist. Descript hat kürzlich auch textbasierte Videobearbeitungsfunktionen hinzugefügt, mit denen Podcasts und andere Videoinhalte erstellt werden können.

Redakteur Kendrick sagte, er habe die textbasierten Bearbeitungstools von Adobe verwendet, um einem Freund bei der schnellen Bearbeitung einer Minidokumentation zu helfen. Seiner Meinung nach ist diese textbasierte Bearbeitungsfunktion auch für professionelle Redakteure von großer Bedeutung. In der Vergangenheit mussten Produzenten/Redakteure oft mehrere Tage damit verbringen, das Filmmaterial zu sortieren, um sicherzustellen, dass die Materialien innerhalb eines engen Zeitrahmens schnell in ein Programm eingebunden werden konnten.

Hörbücher, Drehbücher, soziale Medien – KI ist überall

KI dringt in andere Unterhaltungsbereiche vor. Apple hat ein KI-Tool auf den Markt gebracht, das Kommentare für Hörbücher generieren kann und Autoren eine weitere Möglichkeit bietet, kostengünstige Audioversionen ihrer Projekte zu erstellen. Doch sobald die Nachricht bekannt wurde, äußerten professionelle Hörbuchsprecher und ihre Legionen von Fans heftigen Widerstand.

Ja, diese professionellen Synchronsprecher sind auf jeden Fall talentiert und können mit ihren faszinierenden Darbietungen und Klangfarben oft Farbe in die Werke bringen. Verglichen mit ihren Ergebnissen ist KI-generiertes Erzählen noch Zukunftsmusik.

Aber bei Büchern, die keine Bestseller sind, reicht das begrenzte Einkommen offensichtlich nicht aus, um den Menschen ein Hörerlebnis auf diesem Niveau zu ermöglichen. Derzeit sind KI-Tools eine gute Wahl, die sowohl kostengünstig ist als auch die Qualität des Erlebnisses bis zu einem gewissen Grad garantieren kann. Es ist dieser Nischenmarkt für das Hören von Büchern mit einer weltweiten Bewertung von etwa 1,5 Milliarden US-Dollar, den Apple im Auge hat.

Das Start-up-Unternehmen Filmusage versucht, mithilfe von KI Drehbuchelemente aufzuteilen, darunter Schauspieler, Requisiten, Kostüme, Fahrzeuge, Geräusche, Orte usw.

Was den Bereich der Kurzvideos betrifft, so basieren TikTok, Meta Reels und Alphabets YouTube Shorts alle auf maschinellem Lernen und KI-Tools, um „empfohlene“ Videos anzuzeigen, an denen Benutzer interessiert sein könnten, und streben danach, Werbung nahtloser und nahtloser in Videos zu integrieren Attraktive Art und Weise Das Seherlebnis kommt zusammen.

Rich Greenberg, Analyst bei der Finanzratingagentur LightShed Partners, erwähnte, dass Facebook sehr hohe Kosten gezahlt habe, als es auf KI-gesteuerte Inhaltsempfehlungen umstieg, aber „diese Tatsache beweist letztendlich, dass Zuckerberg seit seiner Gründung KI-Inhaltsempfehlungen durchgeführt hat.“ Facebook. Die zweite große richtige Entscheidung.“

Das obige ist der detaillierte Inhalt vonKI ist überall: Neue Veränderungen in der Film- und Fernsehproduktion. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Beste grafische Einstellungen
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌
Will R.E.P.O. Crossplay haben?
1 Monate vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

CentOS Shutdown -Befehlszeile CentOS Shutdown -Befehlszeile Apr 14, 2025 pm 09:12 PM

Der Befehl centOS stilldown wird heruntergefahren und die Syntax wird von [Optionen] ausgeführt [Informationen]. Zu den Optionen gehören: -h das System sofort stoppen; -P schalten Sie die Leistung nach dem Herunterfahren aus; -r neu starten; -t Wartezeit. Zeiten können als unmittelbar (jetzt), Minuten (Minuten) oder als bestimmte Zeit (HH: MM) angegeben werden. Hinzugefügten Informationen können in Systemmeldungen angezeigt werden.

Sony bestätigt die Möglichkeit, spezielle GPUs für PS5 Pro zu verwenden, um KI mit AMD zu entwickeln Sony bestätigt die Möglichkeit, spezielle GPUs für PS5 Pro zu verwenden, um KI mit AMD zu entwickeln Apr 13, 2025 pm 11:45 PM

Mark Cerny, Chefarchitekt von SonyInteractiveStonterment (Siey Interactive Entertainment), hat weitere Hardware-Details der Host-PlayStation5pro (PS5PRO) der nächsten Generation veröffentlicht, darunter ein auf Performance verbessertes Amdrdna2.x-GPU und ein maschinelles Lernen/künstliches Intelligenzprogramm Code-genannt "Amethylst" mit Amd. Der Fokus der PS5PRO-Leistungsverbesserung liegt immer noch auf drei Säulen, darunter eine leistungsstärkere GPU, eine fortschrittliche Ray-Tracing und eine von KI betriebene PSSR-Superauflösung. GPU nimmt eine maßgeschneiderte AMDRDNA2 -Architektur an, die Sony RDNA2.x nennt, und es hat eine rDNA3 -Architektur.

Was sind die Backup -Methoden für Gitlab auf CentOS? Was sind die Backup -Methoden für Gitlab auf CentOS? Apr 14, 2025 pm 05:33 PM

Backup- und Wiederherstellungsrichtlinie von GitLab im Rahmen von CentOS -System Um die Datensicherheit und Wiederherstellung der Daten zu gewährleisten, bietet GitLab on CentOS eine Vielzahl von Sicherungsmethoden. In diesem Artikel werden mehrere gängige Sicherungsmethoden, Konfigurationsparameter und Wiederherstellungsprozesse im Detail eingeführt, um eine vollständige GitLab -Sicherungs- und Wiederherstellungsstrategie aufzubauen. 1. Manuell Backup Verwenden Sie den GitLab-RakegitLab: Backup: Befehl erstellen, um die manuelle Sicherung auszuführen. Dieser Befehl unterstützt wichtige Informationen wie GitLab Repository, Datenbank, Benutzer, Benutzergruppen, Schlüssel und Berechtigungen. Die Standardsicherungsdatei wird im Verzeichnis/var/opt/gitlab/backups gespeichert. Sie können /etc /gitlab ändern

Was sind die Methoden zur Abstimmung der Leistung von Zookeeper auf CentOS Was sind die Methoden zur Abstimmung der Leistung von Zookeeper auf CentOS Apr 14, 2025 pm 03:18 PM

Die Zookeper -Leistungsstimmung auf CentOS kann von mehreren Aspekten beginnen, einschließlich Hardwarekonfiguration, Betriebssystemoptimierung, Konfigurationsparameteranpassung, Überwachung und Wartung usw. Hier finden Sie einige spezifische Tuning -Methoden: SSD wird für die Hardwarekonfiguration: Da die Daten von Zookeeper an Disk geschrieben werden, wird empfohlen, SSD zu verbessern, um die I/O -Leistung zu verbessern. Genug Memory: Zookeeper genügend Speicherressourcen zuweisen, um häufige Lesen und Schreiben von häufigen Festplatten zu vermeiden. Multi-Core-CPU: Verwenden Sie Multi-Core-CPU, um sicherzustellen, dass Zookeeper es parallel verarbeiten kann.

So überprüfen Sie die CentOS -HDFS -Konfiguration So überprüfen Sie die CentOS -HDFS -Konfiguration Apr 14, 2025 pm 07:21 PM

Vollständige Anleitung zur Überprüfung der HDFS -Konfiguration in CentOS -Systemen In diesem Artikel wird die Konfiguration und den laufenden Status von HDFS auf CentOS -Systemen effektiv überprüft. Die folgenden Schritte helfen Ihnen dabei, das Setup und den Betrieb von HDFs vollständig zu verstehen. Überprüfen Sie die Hadoop -Umgebungsvariable: Stellen Sie zunächst sicher, dass die Hadoop -Umgebungsvariable korrekt eingestellt ist. Führen Sie im Terminal den folgenden Befehl aus, um zu überprüfen, ob Hadoop ordnungsgemäß installiert und konfiguriert ist: Hadoopsion-Check HDFS-Konfigurationsdatei: Die Kernkonfigurationsdatei von HDFS befindet sich im/etc/hadoop/conf/verzeichnis, wobei core-site.xml und hdfs-site.xml von entscheidender Bedeutung sind. verwenden

Wie man ein Pytorch -Modell auf CentOS trainiert Wie man ein Pytorch -Modell auf CentOS trainiert Apr 14, 2025 pm 03:03 PM

Effizientes Training von Pytorch -Modellen auf CentOS -Systemen erfordert Schritte, und dieser Artikel bietet detaillierte Anleitungen. 1.. Es wird empfohlen, YUM oder DNF zu verwenden, um Python 3 und Upgrade PIP zu installieren: Sudoyumupdatepython3 (oder sudodnfupdatepython3), PIP3Install-upgradepip. CUDA und CUDNN (GPU -Beschleunigung): Wenn Sie Nvidiagpu verwenden, müssen Sie Cudatool installieren

Wie ist die GPU -Unterstützung für Pytorch bei CentOS? Wie ist die GPU -Unterstützung für Pytorch bei CentOS? Apr 14, 2025 pm 06:48 PM

Aktivieren Sie die Pytorch -GPU -Beschleunigung am CentOS -System erfordert die Installation von CUDA-, CUDNN- und GPU -Versionen von Pytorch. Die folgenden Schritte führen Sie durch den Prozess: Cuda und Cudnn Installation Bestimmen Sie die CUDA-Version Kompatibilität: Verwenden Sie den Befehl nvidia-smi, um die von Ihrer NVIDIA-Grafikkarte unterstützte CUDA-Version anzuzeigen. Beispielsweise kann Ihre MX450 -Grafikkarte CUDA11.1 oder höher unterstützen. Download und installieren Sie Cudatoolkit: Besuchen Sie die offizielle Website von Nvidiacudatoolkit und laden Sie die entsprechende Version gemäß der höchsten CUDA -Version herunter und installieren Sie sie, die von Ihrer Grafikkarte unterstützt wird. Installieren Sie die Cudnn -Bibliothek:

Endlich verändert! Microsoft Windows -Suchfunktion wird ein neues Update einleiten Endlich verändert! Microsoft Windows -Suchfunktion wird ein neues Update einleiten Apr 13, 2025 pm 11:42 PM

Die Verbesserungen von Microsoft an Windows -Suchfunktionen wurden auf einigen Windows -Insider -Kanälen in der EU getestet. Zuvor wurde die integrierte Windows -Suchfunktion von Benutzern kritisiert und hatte schlechte Erfahrung. Dieses Update teilt die Suchfunktion in zwei Teile auf: lokale Suche und Bing-basierte Websuche, um die Benutzererfahrung zu verbessern. Die neue Version der Suchschnittstelle führt standardmäßig lokale Dateisuche durch. Wenn Sie online suchen müssen, müssen Sie auf die Registerkarte "Microsoft Bingwebsearch" klicken, um zu wechseln. Nach dem Umschalten wird in der Suchleiste "Microsoft Bingwebsearch:" angezeigt, in dem Benutzer Keywords eingeben können. Dieser Schritt vermeidet effektiv das Mischen lokaler Suchergebnisse mit Bing -Suchergebnissen

See all articles