


Codeforces Round #157 (Div. 1) C. Little Elephant and LCM (数学、dp)_PHP教程
Codeforces Round #157 (Div. 1) C. Little Elephant and LCM (数学、dp)
C. Little Elephant and LCM time limit per test 4 seconds memory limit per test 256 megabytes input standard input output standard outputThe Little Elephant loves the LCM (least common multiple) operation of a non-empty set of positive integers. The result of the LCM operation of k positive integers x1,?x2,?...,?xk is the minimum positive integer that is divisible by each of numbers xi.
Let's assume that there is a sequence of integers b1,?b2,?...,?bn. Let's denote their LCMs as lcm(b1,?b2,?...,?bn) and the maximum of them as max(b1,?b2,?...,?bn). The Little Elephant considers a sequence b good, if lcm(b1,?b2,?...,?bn)?=?max(b1,?b2,?...,?bn).
The Little Elephant has a sequence of integers a1,?a2,?...,?an. Help him find the number of good sequences of integers b1,?b2,?...,?bn, such that for all i (1?≤?i?≤?n) the following condition fulfills: 1?≤?bi?≤?ai. As the answer can be rather large, print the remainder from dividing it by 1000000007 (109?+?7).
InputThe first line contains a single positive integer n (1?≤?n?≤?105) — the number of integers in the sequence a. The second line contains nspace-separated integers a1,?a2,?...,?an (1?≤?ai?≤?105) — sequence a.
OutputIn the single line print a single integer — the answer to the problem modulo 1000000007 (109?+?7).
Sample test(s)input
4 1 4 3 2
15
2 6 3
13
题意:
给你一个a序列,找出一个b序列,1?≤?bi?≤?ai,使得max(bi)=lcm(bi),问这样的bi序列有多少个。
思路:
先对a排序,枚举i=max(bi),对i因式分解,那么大于等于i的部分很好处理,直接pow_mod()相减,小于i的部分就任意取一个约束就够了。
代码:
<pre class="code">#include <iostream> #include<cstring> #include<cstdio> #include<string> #include<vector> #include #define INF 0x3f3f3f3f #define maxn 100005 #define mod 1000000007 typedef long long ll; using namespace std; int n; int a[maxn]; ll pow_mod(ll x,ll n) { ll res = 1; while(n) { if(n&1) res = res * x %mod; x = x * x %mod; n >>= 1; } return res; } void solve() { int i,j; ll ans=0,res; sort(a+1,a+n+1); for(i=1;i<=a[n];i++) // 枚举答案 { vector<int>fac; for(j=1;j*j<=i;j++) // factor { if(i%j==0) { fac.push_back(j); if(j*j!=i) fac.push_back(i/j); } } sort(fac.begin(),fac.end()); int pos,pre=1; res=1; for(j=1;j<fac.size();j++) { pos=lower_bound(a+1,a+n+1,fac[j])-a; res*=pow_mod(j,pos-pre); res%=mod; pre=pos; } ans+=res*((pow_mod(j,n-pre+1)-pow_mod(j-1,n-pre+1)+mod)%mod); ans%=mod; } printf("%I64d\n",ans); } int main() { int i,j; while(~scanf("%d",&n)) { for(i=1;i<=n;i++) { scanf("%d",&a[i]); } solve(); } return 0; }

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



KI verändert tatsächlich die Mathematik. Vor kurzem hat Tao Zhexuan, der diesem Thema große Aufmerksamkeit gewidmet hat, die neueste Ausgabe des „Bulletin of the American Mathematical Society“ (Bulletin der American Mathematical Society) weitergeleitet. Zum Thema „Werden Maschinen die Mathematik verändern?“ äußerten viele Mathematiker ihre Meinung. Der gesamte Prozess war voller Funken, knallhart und aufregend. Der Autor verfügt über eine starke Besetzung, darunter der Fields-Medaillengewinner Akshay Venkatesh, der chinesische Mathematiker Zheng Lejun, der NYU-Informatiker Ernest Davis und viele andere bekannte Wissenschaftler der Branche. Die Welt der KI hat sich dramatisch verändert. Viele dieser Artikel wurden vor einem Jahr eingereicht.

Eine siebeneckige Zahl ist eine Zahl, die als ein Siebeneck dargestellt werden kann. daher,

Zählen klingt einfach, ist aber in der Praxis sehr schwierig. Stellen Sie sich vor, Sie werden in einen unberührten Regenwald transportiert, um eine Wildtierzählung durchzuführen. Wenn Sie ein Tier sehen, machen Sie ein Foto. Digitalkameras zeichnen nur die Gesamtzahl der verfolgten Tiere auf, Sie interessieren sich jedoch für die Anzahl der einzelnen Tiere, es gibt jedoch keine Statistiken. Wie erhält man also am besten Zugang zu dieser einzigartigen Tierpopulation? An diesem Punkt müssen Sie sagen: Beginnen Sie jetzt mit dem Zählen und vergleichen Sie schließlich jede neue Art vom Foto mit der Liste. Für Informationsmengen bis zu mehreren Milliarden Einträgen ist diese gängige Zählmethode jedoch teilweise nicht geeignet. Informatiker des Indian Statistical Institute (UNL) und der National University of Singapore haben einen neuen Algorithmus vorgeschlagen – CVM. Es kann die Berechnung verschiedener Elemente in einer langen Liste annähern.

Über Nacht wird sich das Paradigma des maschinellen Lernens ändern! Heutzutage ist die Infrastruktur, die den Bereich des Deep Learning dominiert, das Multilayer Perceptron (MLP), das Aktivierungsfunktionen auf Neuronen überträgt. Gibt es darüber hinaus irgendwelche neuen Wege, die wir einschlagen können? Erst heute haben Teams vom MIT, Caltech, der Northeastern University und anderen Institutionen eine neue neuronale Netzwerkstruktur veröffentlicht – Kolmogorov-Arnold Networks (KAN). Die Forscher haben eine einfache Änderung am MLP vorgenommen, indem sie die lernbare Aktivierungsfunktion von den Knoten (Neuronen) zu den Kanten (Gewichten) verschoben haben! Papieradresse: https://arxiv.org/pdf/2404.19756 Diese Änderung scheint auf den ersten Blick unbegründet

Vision Mit der Entwicklung der Technologie der künstlichen Intelligenz ist die KI-Malerei derzeit zu einem heißen Thema geworden. Durch den Einsatz von Deep-Learning-Algorithmen kann künstliche Intelligenz realistische Bilder erzeugen, um atemberaubende Kunstwerke zu schaffen. Hinter diesen erstaunlichen Werken steckt untrennbar die Unterstützung durch mathematisches Wissen. Mathematische Modelle spielen in der KI-Malerei eine entscheidende Rolle. Einerseits werden mathematische Modelle zur Beschreibung und Darstellung von Bildinformationen verwendet, die es Computern ermöglichen, Bilder zu verstehen und zu verarbeiten. Andererseits werden mathematische Modelle auch verwendet, um Deep-Learning-Modelle zu trainieren, um eine automatische Generierung von Bildern zu erreichen. Das Deep-Learning-Modell ermöglicht eine qualitativ hochwertige Bilderzeugung. Das Deep-Learning-Modell ist der Kernbestandteil der KI-Malerei. Es identifiziert und simuliert Bildmerkmale durch das Erlernen einer großen Menge an Bilddaten und durch mehrstufige Datenverarbeitung

In letzter Zeit erfreut sich die KI-Malerei großer Beliebtheit. Während Sie über die Malfähigkeiten der KI staunen, wissen Sie vielleicht nicht, dass das Diffusionsmodell dabei eine große Rolle spielt. Nehmen Sie als Beispiel das beliebte Modell DALL·E 2 von OpenAI. Geben Sie einfach einen einfachen Text (Eingabeaufforderung) ein und es können mehrere hochauflösende Bilder mit 1024 * 1024 generiert werden. Nicht lange nach der Ankündigung von DALL·E 2 veröffentlichte Google anschließend Imagen, ein Text-zu-Bild-KI-Modell, das aus einer vorgegebenen Textbeschreibung realistische Bilder der Szene generieren kann. Erst vor wenigen Tagen hat Stability.Ai das Textgenerierungs-Bildmodell Stable Diffusi öffentlich veröffentlicht

ChatGPT versteht auch menschliche Tricks, wenn es um die Generierung von Zufallszahlen geht. ChatGPT ist vielleicht ein Bullshit-Künstler und Verbreiter von Fehlinformationen, aber es ist kein „Mathematiker“! Kürzlich entdeckte Colin Fraser, ein Metadatenwissenschaftler, dass ChatGPT keine echten Zufallszahlen generieren kann, sondern eher „menschlichen Zufallszahlen“ ähnelt. Durch Experimente kam Fraser zu dem Schluss: „ChatGPT mag die Zahlen 42 und 7 sehr.“ Netizens sagten, dass dies bedeutet, dass Menschen diese Zahlen sehr mögen. ChatGPT liebt auch „Die ultimative Antwort auf das Universum“. In seinem Test lautet die Eingabeaufforderung von Fraser wie folgt: „Wählen Sie eine Zufallszahl.“

Mitte Oktober 2022 flog Justin Gilmer von Kalifornien nach New York, um seinen ehemaligen Mentor Michael Saks, einen Mathematiker an der Rutgers University, an der Ostküste zu besuchen. Während der Erinnerung sprachen sie nicht über Mathematik. Tatsächlich hat Gilmer seit seiner Promotion an der Rutgers University im Jahr 2015 nicht mehr ernsthaft über Mathematik nachgedacht. Zu diesem Zeitpunkt entschied er sich gegen eine akademische Laufbahn und begann, sich selbst das Programmieren beizubringen. Beim Abendessen mit Saks erzählte Gilmer seinem Mentor von seiner Arbeit bei Google: maschinelles Lernen und künstliche Intelligenz. Als er den Weg auf dem Campus entlangging, erinnerte sich Gilmer, dass er 2013 mehr als ein Jahr damit verbracht hatte, diesen Weg zu gehen.
