aktueller Standort:Heim > Technische Artikel > Technologie-Peripheriegeräte > KI
- Richtung:
- alle web3.0 Backend-Entwicklung Web-Frontend Datenbank Betrieb und Instandhaltung Entwicklungswerkzeuge PHP-Framework tägliche Programmierung WeChat-Applet häufiges Problem andere Technik CMS-Tutorial Java System-Tutorial Computer-Tutorials Hardware-Tutorial Mobiles Tutorial Software-Tutorial Tutorial für Handyspiele
- Klassifizieren:
-
- Das Transformer-Deep-Learning-Modell des Teams der Chinesischen Akademie der Wissenschaften ist 30-mal effizienter als herkömmliche Methoden und sagt die Interaktionsorte zwischen Zucker und Protein voraus
- Zucker ist die am häufigsten vorkommende organische Substanz in der Natur und lebensnotwendig. Das Verständnis, wie Kohlenhydrate Proteine während physiologischer und pathologischer Prozesse regulieren, kann Möglichkeiten bieten, wichtige biologische Fragen zu beantworten und neue Behandlungen zu entwickeln. Die Vielfalt und Komplexität von Zuckermolekülen stellt jedoch eine Herausforderung dar, wenn es darum geht, Bindungs- und Interaktionsstellen zwischen Zucker und Protein experimentell zu identifizieren. Hier entwickelte ein Team der Chinesischen Akademie der Wissenschaften DeepGlycanSite, ein Deep-Learning-Modell, das Zuckerbindungsstellen auf einer bestimmten Proteinstruktur genau vorhersagen kann. DeepGlycanSite integriert die geometrischen und evolutionären Eigenschaften von Proteinen in ein tiefes äquivariantes graphisches neuronales Netzwerk mit einer Transformer-Architektur. Seine Leistung übertrifft frühere fortschrittliche Methoden deutlich und kann effektiv vorhersagen
- KI 957 2024-07-01 15:17:50
-
- Mehr als 300 verwandte Studien, die neuesten Übersichtsartikel zur multimodalen Bildbearbeitung der Fudan-Universität und der Nanyang Technological University
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail zur Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Shuai Xincheng, der erste Autor dieses Artikels, studiert derzeit am FVL-Labor der Fudan-Universität und schloss sein Studium an der Shanghai Jiao Tong University mit einem Bachelor ab. Zu seinen Forschungsschwerpunkten zählen Bild- und Videobearbeitung sowie multimodales Lernen. Einleitung Dieser Artikel schlägt einen einheitlichen Ansatz zur Lösung allgemeiner Bearbeitungsaufgaben vor.
- KI 512 2024-06-29 06:14:41
-
- Mit einer Genauigkeit von 0,96 wird ein neuronales Netzwerk mit physikalischen und chemischen Beschränkungsgraphen verwendet, um Protein-Ligand-Wechselwirkungen anhand von Sequenzen vorherzusagen.
- Herausgeber |. Rettichhaut Bei der Arzneimittelentwicklung ist es von entscheidender Bedeutung, die Bindungsaffinität und funktionelle Wirkung kleiner Molekülliganden auf Proteine zu bestimmen. Aktuelle Computermethoden können diese Protein-Ligand-Wechselwirkungseigenschaften vorhersagen, aber ohne hochauflösende Proteinstrukturen geht häufig die Genauigkeit verloren und funktionelle Auswirkungen können nicht vorhergesagt werden. Forscher der Monash University und der Griffith University haben PSICHIC (PhySIcoCHhemICalgraphneuralnetwork) entwickelt, ein Framework, das physikalisch-chemische Einschränkungen kombiniert, um Interaktionsfingerabdrücke direkt aus Sequenzdaten zu dekodieren. Dies ermöglicht es PSICHIC, die Mechanismen hinter Protein-Ligand-Wechselwirkungen zu entschlüsseln und so Genauigkeit und Interpretierbarkeit auf dem neuesten Stand der Technik zu erreichen. In Ermangelung strukturierter Daten
- KI 636 2024-06-29 05:16:50
-
- Googles „aufrichtige Arbeit', Open-Source-9B- und 27B-Versionen von Gemma2, mit Schwerpunkt auf Effizienz und Wirtschaftlichkeit!
- Wie kann Gemma2, das die doppelte Leistung hat, mit Llama3 spielen, das die gleiche Leistung hat? Auf der KI-Strecke konkurrieren die Technologiegiganten hart. GPT-4o kam vorne heraus und Claude3.5Sonnet erschien hinten. Obwohl Google seine Bemühungen in einem so erbitterten Kampf erst spät startete, verfügt es über erhebliche Fähigkeiten, die es in kurzer Zeit weiterverfolgen kann, was sein Potenzial für technologische Entwicklung und Innovation zeigt. Neben dem Gemini-Modell scheint uns Gemma, eine Reihe leichter SOTA-Open-Modelle, näher zu sein. Es basiert auf der gleichen Forschung und Technologie wie das Gemini-Modell und zielt darauf ab, jedem die Werkzeuge zum Aufbau von KI an die Hand zu geben. Google erweitert die Gemma-Familie weiter, darunter CodeGemma, RecurrentGemma und P
- KI 1011 2024-06-29 00:59:21
-
- ICML 2024 |. Aufdeckung des Mechanismus des nichtlinearen Transformer-Lernens und der Verallgemeinerung im kontextuellen Lernen
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Der Autor dieses Artikels, Li Hongkang, ist Doktorand in der Abteilung für Elektrotechnik, Computer- und Systemtechnik am Rensselaer Polytechnic Institute in den Vereinigten Staaten Universität für Wissenschaft und Technologie Chinas mit einem Bachelor-Abschluss. Zu den Forschungsrichtungen gehören Deep-Learning-Theorie, Theorie großer Sprachmodelle, statistisches maschinelles Lernen usw. Derzeit im ICLR/
- KI 428 2024-06-29 00:44:41
-
- Besiegte Gemini-1.5-Pro und GPT-4V und gehörte zu den drei besten der Welt bei den multimodalen Fähigkeiten großer Modelle
- Das große Modell von Yuncong Technology hat kürzlich erhebliche Fortschritte im multimodalen Bewertungsbereich von OpenCompass, der maßgeblichen umfassenden Bewertungsplattform, erzielt. Die neuesten Bewertungsergebnisse zeigen, dass die durchschnittliche Punktzahl des Congrong-Großmodells in diesem System 65,5 beträgt. Mit diesem Ergebnis gehört das Congrong-Großmodell zu den ersten drei der Welt und übertrifft Googles Gemini-1.5-Pro und GPT-4v. Platz zwei auf GPT-4o (69,9) und Claude3.5-Sonnet (67,9). Auf dem heimischen Markt übertraf die Leistung des großen Modells auch InternVL-Chat (61,7) und GLM-4V (60,8) und belegte den ersten Platz. 1.OpenCompass multimodale Liste OpenCom
- KI 965 2024-06-29 00:25:01
-
- Das Bengio-Team schlägt einen neuen multimodalen Benchmark vor, der auf die Schwächen von Claude 3.5 und GPT-4o abzielt
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Der Autor dieses Artikels, Zhang Tianyu, studierte am Mila Institute of Artificial Intelligence in Kanada und studierte bei Professor Yoshua Bengio, dem Gewinner des Turing Award. Die Hauptarbeit während der Promotionszeit konzentrierte sich auf Multimodalität, GFlowNet, Multi-Agent Reinforcement Learning, KI und Klimawandel
- KI 782 2024-06-29 00:06:53
-
- Als neuestes CoreML-Modell von Apple wurde das Modell Depth Anything V2 des Byte-Modellteams ausgewählt
- Kürzlich hat Apple 20 neue CoreML-Modelle und 4 Datensätze auf HuggingFace veröffentlicht, unter denen das monokulare Tiefenschätzungsmodell DepthAnythingV2 vom Byte Model Team ausgewählt wurde. CoreML Apples Framework für maschinelles Lernen wird verwendet, um Modelle für maschinelles Lernen zu integrieren, um eine effiziente Ausführung auf iOS, MacOS und anderen Geräten zu ermöglichen. Führen Sie komplexe KI-Aufgaben aus, ohne dass eine Internetverbindung erforderlich ist, verbessern Sie die Privatsphäre der Benutzer und reduzieren Sie die Latenz. Apple-Entwickler können diese Modelle nutzen, um intelligente und sichere KI-Anwendungen zu erstellen. Ein monokulares Tiefenschätzungsmodell, das vom DepthAnythingV2-Team für bytegroße Modelle entwickelt wurde. Die V2-Version verfügt über eine feinere Detailverarbeitung, eine höhere Robustheit und eine deutlich verbesserte Geschwindigkeit. Enthält 25 Millionen bis
- KI 366 2024-06-28 22:40:06
-
- Wandeln Sie Bilder automatisch in Text um, und Bildbeschreibungen sind von höherer Qualität und genauer.
- Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Pi Renjie: Doktorand im dritten Jahr an der Hong Kong University of Science and Technology, studiert bei Professor Zhang Tong und Professor Zhou Xiaofang. Erhielt 2024 ein Apple-Stipendium. Die aktuellen Hauptforschungsrichtungen sind multimodale große Sprachmodelle und datenzentrierte KI. Zhang Jianshu: Student im dritten Studienjahr an der Universität Wuhan,
- KI 884 2024-06-28 21:41:35
-
- Die Geburt von Cambrian No. 1: Das Team von Xie Saining und Yann LeCun veröffentlichte das leistungsstärkste multimodale Open-Source-LLM
- So wie Tiere Augen haben, ermöglicht Cambrian-1 aus dem Team von Yann LeCun der KI, leistungsstarke Lernfähigkeiten für die visuelle Darstellung zu erlangen. Im Laufe der Jahrhunderte haben sich viele Philosophen mit dieser Frage beschäftigt: Muss das Verständnis der Bedeutung von Sprache auf den Sinnen beruhen? Obwohl die Philosophen anderer Meinung sind, ist eines klar: Eine solide und wirksame sensorische Erdung kann zumindest helfen. Beispielsweise glauben Wissenschaftler im Allgemeinen, dass die Entstehung des Sehvermögens während der kambrischen Explosion ein entscheidender Schritt in der Evolution der frühen Tiere war. Sie hat den Tieren nicht nur dabei geholfen, besser Nahrung zu finden und Raubtieren auszuweichen, sondern auch die Entwicklung der Tiere selbst gefördert. Tatsächlich wird das meiste Wissen, über das Menschen (und fast alle Tiere) verfügen, durch Sinneserfahrungen erworben, die mit dem Physischen interagieren
- KI 1073 2024-06-28 21:28:07
-
- Inländische Großmodelle erreichen neue Höhen! iFlytek Spark 4.0 veröffentlicht: Übertrifft insgesamt GPT-4 Turbo und belegt den ersten Platz in 8 internationalen, maßgeblichen Testsätzen
- Die Fähigkeiten heimischer Großmodelle haben ein neues Niveau erreicht! Am 27. Juni veröffentlichte iFlytek offiziell das iFlytek Spark-Modell V4.0 sowie Anwendungen für künstliche Intelligenz in vielen Bereichen wie medizinische Versorgung, Bildung und Wirtschaft. Mit der Veröffentlichung der neuen Version wurden die sieben Kernfunktionen von iFlytek Spark V4.0 vollständig aktualisiert und belegten in 8 internationalen Mainstream-Testsätzen den ersten Platz, übertrafen insgesamt GPT-4Turbo und führende inländische Großmodelle. Liu Qingfeng sagte, dass die Anzahl der Downloads der Spark-App derzeit 131 Millionen erreicht habe und eine Reihe von bei Benutzern beliebten Anwendungsassistenten entstanden seien. Mit der Unterstützung des Spark-Modells stiegen die Verkäufe intelligenter Hardware in einigen Szenarien um mehr als 70 % im Jahresvergleich, wobei die durchschnittliche monatliche Nutzung 40 Millionen überstieg. Darüber hinaus basiert das große Modell Xinghuo V4.0 auf dem ersten inländischen Wanka des Landes
- KI 1024 2024-06-28 20:52:47
-
- Die erste Echtzeit-KI-Videogenerierungstechnologie der Geschichte: DiT universell, 10,6-mal schneller
- Mit DiT können Videos ohne Qualitätsverlust und ohne Schulungsaufwand erstellt werden. Die KI-Videogenerierung in Echtzeit ist da! Am Mittwoch schlug das You Yang-Team der National University of Singapore die branchenweit erste DiT-basierte Methode zur Videogenerierung vor, die in Echtzeit ausgegeben werden kann. Die Technologie heißt PyramidAttentionBroadcast (PAB). Durch die Reduzierung redundanter Aufmerksamkeitsberechnungen erreicht PAB Bildraten von bis zu 21,6 Bildern pro Sekunde und eine 10,6-fache Beschleunigung, ohne auf die Vorteile beliebter DiT-basierter Videogenerierungsmodelle wie Open-Sora, Open-Sora-Plan und Latte-Qualität zu verzichten. Es ist erwähnenswert, dass PAB als Methode, die keine Schulung erfordert, für jede zukünftige DiT-basierte Methode verwendet werden kann
- KI 1247 2024-06-28 19:14:46
-
- Tsinghua AIR und andere schlugen ESM-AA vor, das erste Proteinsprachenmodell von Aminosäuren bis hin zu atomaren Skalen
- Forschungsteams der Tsinghua University AIR, der Peking University und der Nanjing University schlugen das ESM-AA-Modell vor. Dieses Modell hat im Bereich der Proteinsprachenmodellierung wichtige Fortschritte gemacht und eine einheitliche Modellierungslösung bereitgestellt, die Informationen auf mehreren Skalen integriert. Es ist das erste vorab trainierte Protein-Sprachmodell, das sowohl Aminosäureinformationen als auch Atominformationen verarbeiten kann. Die hervorragende Leistung des Modells zeigt das große Potenzial der einheitlichen Multiskalenmodellierung zur Überwindung bestehender Einschränkungen und zur Erschließung neuer Möglichkeiten. Als Basismodell wurde ESM-AA von vielen Wissenschaftlern beachtet und ausführlich diskutiert (siehe Screenshot unten). Man geht davon aus, dass es das Potenzial hat, auf ESM-AA basierende Modelle zu entwickeln, die mit AlphaFold3 und RoseTTAFoldAll-Atom konkurrieren können und bieten eine Plattform zur Untersuchung verschiedener Organismenphasen zwischen Strukturen
- KI 1121 2024-06-28 18:10:06
-
- Das Team der Universität Zhengzhou entwickelt effizient und genau ein neues KI-Tool zur Identifizierung von Arzneimittel-Zielinteraktionen
- Herausgeber |. Dry Leaf Butterfly Die genaue Identifizierung von Arzneimittel-Target-Wechselwirkungen (DTIs) ist einer der Schlüsselschritte im Prozess der Arzneimittelentdeckung und Arzneimittelneupositionierung. Derzeit wurden viele rechnerbasierte Modelle zur Vorhersage des DTI vorgeschlagen und einige bedeutende Fortschritte erzielt. Diese Methoden konzentrieren sich jedoch selten darauf, wie man Multiview-Ähnlichkeitsnetzwerke im Zusammenhang mit Medikamenten und Zielen auf geeignete Weise zusammenführen kann. Darüber hinaus wurde nicht ausreichend untersucht, wie bekannte Wechselwirkungsbeziehungen vollständig einbezogen werden können, um Arzneimittel und Ziele genau darzustellen. Daher ist es weiterhin notwendig, die Genauigkeit von DTI-Vorhersagemodellen zu verbessern. In der neuesten Forschung schlugen Teams der Zhengzhou University und der University of Electronic Science and Technology of China eine neue Methode vor: MIDTI. Diese Methode verwendet eine Multi-View-Ähnlichkeitsnetzwerk-Fusionsstrategie und einen tiefgreifenden interaktiven Aufmerksamkeitsmechanismus, um Medikamente vorherzusagen.
- KI 1139 2024-06-28 02:31:25
-
- Speziell auf fünf große wissenschaftliche Bereiche zugeschnitten, arbeiten NASA und IBM zusammen, um ein großes Sprachmodell INDUS zu entwickeln
- INDUS, benannt nach dem südlichen Sternbild, ist ein umfassender Satz groß angelegter Sprachmodelle, die fünf wissenschaftliche Bereiche unterstützen. (Quelle: NASA) Herausgeber | Die meisten gängigen LLMs werden mit allgemeinen Korpora wie Wikipedia trainiert, aber die veränderte Verteilung des Wortschatzes führt zu einer schlechten Leistung in bestimmten Bereichen. Davon inspiriert arbeitete die NASA mit IBM zusammen, um INDUS zu entwickeln, einen umfassenden Satz von LLMs, die auf die Bereiche Geowissenschaften, Biologie, Physik, Heliophysik, Planetenwissenschaften und Astrophysik zugeschnitten sind und Daten aus verschiedenen Datenquellen verwenden. Es wird ein kuratierter wissenschaftlicher Korpus von Datenquellen verwendet für das Training. INDUS enthält zwei Arten von Modellen: Encoder und Satz
- KI 817 2024-06-27 20:28:32