Django中的模型与数据库(Models and database)
Django中的模型与数据库(Models and database) 对于数据库大家都不陌生,但是Models该怎么理解,官方文档中有这么一句话: A model is the single, definitive source of data about your data. It contains the essential fields and behaviors of thedata yo
Django中的模型与数据库(Models and database)
对于数据库大家都不陌生,但是Models该怎么理解,官方文档中有这么一句话:
A model is the single, definitive source of data about your data. It contains the essential fields and behaviors of thedata you’re storing. Generally, each model maps to a single database table.
下文暂且称Models为“模型”(个人叫法)
那么,模型具备以下三个特征:
每一个模型都是一个python子类。继承django.db.models.Model模型的每一个属性代表一个数据库字段除了上述之外,jango还提供了自动生成数据库访问的API为了方便理解我们举个例子下面这个例子我们建立了一个Person的模型,且有两个字段)first_name,last_name
<code><span>from</span> django.db <span>import</span> models <span><span>class</span> <span>Person</span><span>(models.Model)</span>:</span> first_name = models.CharField(max_length=<span>30</span>) last_name = models.CharField(max_length=<span>30</span>) first_name和last_name是Person模型的Field,每一个Field都是一个指定的类的属性,每一个属性映射到数据库的没一列</code>
这里我就有一个疑问,到底Field能不能称为字段?
<code>上面的Person模型将会对应一张这样的数据库表: CREATE TABLE myapp_person ( <span>"id"</span> serial NOT NULL PRIMARY KEY, <span>"first_name"</span> varchar(<span>30</span>) NOT NULL, <span>"last_name"</span> varchar(<span>30</span>) NOT NULL ); 下面我们聊聊使用,一旦你声明了一个models,你需要去告诉jango你将会去使用该models,在你的settings里把你的 应用名加到INSTALLED_APPS中 INSTALLED_APPS = ( <span>#...</span> ’myapp’, <span>#...</span> ) 当你在INSTALLED_APPS添加新应用后,需要执行manage.py migrate </code>
接下来我们再来说说Fields
<code>它是模型的重要的一部分,它定义了数据库表的字段 <span>from</span> django.db <span>import</span> models <span><span>class</span> <span>Musician</span><span>(models.Model)</span>:</span> first_name = models.CharField(max_length=<span>50</span>) last_name = models.CharField(max_length=<span>50</span>) instrument = models.CharField(max_length=<span>100</span>) <span><span>class</span> <span>Album</span><span>(models.Model)</span>:</span> artist = models.ForeignKey(Musician) name = models.CharField(max_length=<span>100</span>) release_date = models.DateField() num_stars = models.IntegerField() 模型中每一个field是一个Field类实例,jango通过Field类类型去确定一下几个点。 <span>1.</span>数据库字段的类型 <span>2.</span>使用默认的HTML部件但渲染表单的field时(e.g. <input type="“text”">,<select>)</select></code>
Field option
<code>每一个Field都有一个特定参数,例如CharField,max_length null 如果是真,jango将会存储空值null进数据库 默认为false blank 如果为真,field将会允许空格的输入, 默认为false choices 一个二位元组,如果field中使用choices 则在前端展示的HTML组件就是<select> </select></code>
举个例子
<code> YEAR_IN_SCHOOL_CHOICES = ( (’FR’, ’Freshman’), (’SO’, ’Sophomore’), (’JR’, ’Junior’), (’SR’, ’Senior’), (’GR’, ’Graduate’), ) <span>from</span> django.db <span>import</span> models <span><span>class</span> <span>Person</span><span>(models.Model)</span>:</span> SHIRT_SIZES = ( (’S’, ’Small’), (’M’, ’Medium’), (’L’, ’Large’), ) name = models.CharField(max_length=<span>60</span>) shirt_size = models.CharField(max_length=<span>1</span>,choices=SHIRT_SIZES) <span>>>> </span>p = Person(name=<span>"Fred Flintstone"</span>, shirt_size=<span>"L"</span>) <span>>>> </span>p.save() <span>>>> </span>p.shirt_size u’L’ <span>>>> </span>p.get_shirt_size_display() u’Large’</code>
save()
这个在后台执行了一个插入sql。但是并没有真正的导数据库知道用户执行了save(),save()没有返回值,但是save()支持参数
<code>Model.save ([force_insert=<span>False</span>, force_update=<span>False</span>, using=DEFAULT_DB_ALIAS, update_fields=<span>None</span> ] )</code>
当你执行save()操作,jango执行以下步鄹
1:触发pre-save事件,这个信号,任何一个函数都可以监听这个事件
2:一些有特殊的字段类型的字段做处理,例如dateField和auto_now=True这时候得到的值是jango生成的时间,这里要注意的是,数据库的时间可能跟服务器的不一样,所以这里要注意时间同步。
3:为插入准备数据,每一个字段提供一个处理后的值
4:为插入准备sql,这里我理解为拼sql
5:发给数据库执行sql
all()
<code>all_entries = Entry.objects.all() 查看所有的内容 filter(**kwargs) 我们现在看下通过过滤器(filters)获取具体的值 Entry.objects.filter(pub_date__year=<span>2006</span>) exclude(**kwargs) Entry.objects.filter( <span>... </span>headline__startswith=’What’ <span>... </span>).exclude( <span>... </span>pub_date__gte=datetime.date.today() <span>... </span>).filter( <span>... </span>pub_date__gte=datetime(<span>2005</span>, <span>1</span>, <span>30</span>) … ) 返回除去与查找条件相符的数据 get() 如果想要返回指定的一个数据 one_enty = Entry.objects.get(pk=<span>1</span>) </code>
字段查询
__id
<code>被指定的查询字段名字必须是模型field名字相对应,除非外键的情况 Entry.objects.filter(blog_id=<span>4</span>) 这时候返回并不是Entry中id=<span>4</span>的数据行,而是id对应主键算在的数据行</code>
__exact
<code>最普通的情况(默认添加) Entry.objects.get(headline__exact=<span>"Man bites dog"</span>) 翻译成sql就为 SELECT ... WHERE headline = ’Man bites dog’; Blog.objects.get(id__exact=<span>14</span>) <span># 明确的形式</span> Blog.objects.get(id=<span>14</span>) <span># __exact 默认添加</span></code>
__iexact
<code>Blog.objects.get(name__iexact=<span>"beatles blog"</span>) 结果可能是 <span>"Beatles Blog"</span>, <span>"beatles blog"</span>, <span>or</span> <span>"BeAtlES blOG"</span>. 不区分大小写</code>
__contains
<code>Entry.objects.get(headline__contains=’Lennon’) 模糊搜索,翻译成sql SELECT ... WHERE headline LIKE ’%Lennon%’;</code>
__ icontains
<code>Entry.objects.get(headline__icontains=’Lennon’) sql: SELECT ... WHERE headline ILIKE ’%Lennon%’;</code>
__in
<code>Entry.objects.filter(id__in=[<span>1</span>,<span>3</span>,<span>4</span>] sql: SELECT … WHERE id IN (<span>1</span>,<span>3</span>,<span>4</span>); 这种也可以用复合sql的形式表示 inner_qs = Blog.objects.filter(name__contains=’Cheddar’) entries = Entry.objects.filter(blog__in=inner_qs) sql: SELECT ... WHERE blog.id IN (SELECT id FROM ... WHERE NAME LIKE ’%Cheddar%’)</code>
__gt 大于
<code>Entry.objects.filter(id__gt=<span>4</span>) sql: SELECT … WHERE id > <span>4</span> __gte 大于等于 __lt 小于 __lte 小于等于</code>
__range
<code><span>import</span> datetime start_date = datetime.date(<span>2005</span>, <span>1</span>, <span>1</span>) end_date = datetime.date(<span>2005</span>, <span>3</span>, <span>31</span>) Entry.objects.filter(pub_date__range=(start_date, end_date)) sql: SELECT ... WHERE pub_date BETWEEN ’<span>2005</span>-<span>01</span>-<span>01</span>’ <span>and</span> ’<span>2005</span>-<span>03</span>-<span>31</span>’;</code>
__year
<code>Entry.objects.filter(pub_date_year=<span>2005</span>) sql: SELECT … WHERE pub_date BETWEEN ‘<span>2005</span>-<span>01</span>-<span>01</span>’ <span>and</span> ‘<span>2005</span>-<span>12</span>-<span>31</span>’;</code>
__month
__day
__hour
__minute
<code>Entry.objects.filter(pub_date__month=<span>12</span>) sql: SELECT ... WHERE EXTRACT(’month’ FROM pub_date) = ’<span>12</span>’;</code>
__isnull
<code>Entry.objects.filter(pub_date__isnull=<span>True</span>) sql: SELECT ... WHERE pub_date IS NULL;</code>

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Stellen Sie sich ein Modell der künstlichen Intelligenz vor, das nicht nur die Fähigkeit besitzt, die traditionelle Datenverarbeitung zu übertreffen, sondern auch eine effizientere Leistung zu geringeren Kosten erzielt. Dies ist keine Science-Fiction, DeepSeek-V2[1], das weltweit leistungsstärkste Open-Source-MoE-Modell, ist da. DeepSeek-V2 ist ein leistungsstarkes MoE-Sprachmodell (Mix of Experts) mit den Merkmalen eines wirtschaftlichen Trainings und einer effizienten Inferenz. Es besteht aus 236B Parametern, von denen 21B zur Aktivierung jedes Markers verwendet werden. Im Vergleich zu DeepSeek67B bietet DeepSeek-V2 eine stärkere Leistung, spart gleichzeitig 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und erhöht den maximalen Generierungsdurchsatz auf das 5,76-fache. DeepSeek ist ein Unternehmen, das sich mit allgemeiner künstlicher Intelligenz beschäftigt

Anfang dieses Monats schlugen Forscher des MIT und anderer Institutionen eine vielversprechende Alternative zu MLP vor – KAN. KAN übertrifft MLP in Bezug auf Genauigkeit und Interpretierbarkeit. Und es kann MLP, das mit einer größeren Anzahl von Parametern ausgeführt wird, mit einer sehr kleinen Anzahl von Parametern übertreffen. Beispielsweise gaben die Autoren an, dass sie KAN nutzten, um die Ergebnisse von DeepMind mit einem kleineren Netzwerk und einem höheren Automatisierungsgrad zu reproduzieren. Konkret verfügt DeepMinds MLP über etwa 300.000 Parameter, während KAN nur etwa 200 Parameter hat. KAN hat eine starke mathematische Grundlage wie MLP und basiert auf dem universellen Approximationssatz, während KAN auf dem Kolmogorov-Arnold-Darstellungssatz basiert. Wie in der folgenden Abbildung gezeigt, hat KAN

1. Einleitung In den letzten Jahren haben sich YOLOs aufgrund ihres effektiven Gleichgewichts zwischen Rechenkosten und Erkennungsleistung zum vorherrschenden Paradigma im Bereich der Echtzeit-Objekterkennung entwickelt. Forscher haben das Architekturdesign, die Optimierungsziele, Datenerweiterungsstrategien usw. von YOLO untersucht und erhebliche Fortschritte erzielt. Gleichzeitig behindert die Verwendung von Non-Maximum Suppression (NMS) bei der Nachbearbeitung die End-to-End-Bereitstellung von YOLO und wirkt sich negativ auf die Inferenzlatenz aus. In YOLOs fehlt dem Design verschiedener Komponenten eine umfassende und gründliche Prüfung, was zu erheblicher Rechenredundanz führt und die Fähigkeiten des Modells einschränkt. Es bietet eine suboptimale Effizienz und ein relativ großes Potenzial zur Leistungsverbesserung. Ziel dieser Arbeit ist es, die Leistungseffizienzgrenze von YOLO sowohl in der Nachbearbeitung als auch in der Modellarchitektur weiter zu verbessern. zu diesem Zweck

Um große Sprachmodelle (LLMs) an menschlichen Werten und Absichten auszurichten, ist es wichtig, menschliches Feedback zu lernen, um sicherzustellen, dass sie nützlich, ehrlich und harmlos sind. Im Hinblick auf die Ausrichtung von LLM ist Reinforcement Learning basierend auf menschlichem Feedback (RLHF) eine wirksame Methode. Obwohl die Ergebnisse der RLHF-Methode ausgezeichnet sind, gibt es einige Herausforderungen bei der Optimierung. Dazu gehört das Training eines Belohnungsmodells und die anschließende Optimierung eines Richtlinienmodells, um diese Belohnung zu maximieren. Kürzlich haben einige Forscher einfachere Offline-Algorithmen untersucht, darunter die direkte Präferenzoptimierung (Direct Preference Optimization, DPO). DPO lernt das Richtlinienmodell direkt auf der Grundlage von Präferenzdaten, indem es die Belohnungsfunktion in RLHF parametrisiert, wodurch die Notwendigkeit eines expliziten Belohnungsmodells entfällt. Diese Methode ist einfach und stabil

An der Spitze der Softwaretechnologie kündigte die Gruppe von UIUC Zhang Lingming zusammen mit Forschern der BigCode-Organisation kürzlich das StarCoder2-15B-Instruct-Großcodemodell an. Diese innovative Errungenschaft erzielte einen bedeutenden Durchbruch bei Codegenerierungsaufgaben, übertraf erfolgreich CodeLlama-70B-Instruct und erreichte die Spitze der Codegenerierungsleistungsliste. Die Einzigartigkeit von StarCoder2-15B-Instruct liegt in seiner reinen Selbstausrichtungsstrategie. Der gesamte Trainingsprozess ist offen, transparent und völlig autonom und kontrollierbar. Das Modell generiert über StarCoder2-15B Tausende von Anweisungen als Reaktion auf die Feinabstimmung des StarCoder-15B-Basismodells, ohne auf teure manuelle Annotationen angewiesen zu sein.

Die Benchmark-Zielerkennungssysteme der YOLO-Serie haben erneut ein großes Upgrade erhalten. Seit der Veröffentlichung von YOLOv9 im Februar dieses Jahres wurde der Staffelstab der YOLO-Reihe (YouOnlyLookOnce) in die Hände von Forschern der Tsinghua-Universität übergeben. Letztes Wochenende erregte die Nachricht vom Start von YOLOv10 die Aufmerksamkeit der KI-Community. Es gilt als bahnbrechendes Framework im Bereich Computer Vision und ist für seine End-to-End-Objekterkennungsfunktionen in Echtzeit bekannt. Es führt das Erbe der YOLO-Serie fort und bietet eine leistungsstarke Lösung, die Effizienz und Genauigkeit vereint. Papieradresse: https://arxiv.org/pdf/2405.14458 Projektadresse: https://github.com/THU-MIG/yo

Stanford Li Feifei stellte das neue Konzept „räumliche Intelligenz“ zum ersten Mal vor, nachdem er sein eigenes Unternehmen gegründet hatte. Dies ist nicht nur ihre unternehmerische Ausrichtung, sondern auch der „Nordstern“, der sie leitet. Sie betrachtet es als „das entscheidende Puzzleteil zur Lösung des Problems der künstlichen Intelligenz“. Visualisierung führt zu Einsicht; Sehen führt zu Verständnis; Verständnis führt zu Handeln. Basierend auf Li Feifeis 15-minütigem TED-Vortrag wird alles umfassend offengelegt, angefangen beim Ursprung der Lebensevolution vor Hunderten von Millionen Jahren, darüber, wie Menschen sich nicht mit dem zufrieden geben, was die Natur ihnen gegeben hat, und künstliche Intelligenz entwickeln, bis hin zur Art und Weise, wie man baut räumliche Intelligenz im nächsten Schritt. Vor neun Jahren stellte Li Feifei auf derselben Bühne der Welt das neugeborene ImageNet vor – einer der Ausgangspunkte für diese Runde der Deep-Learning-Explosion. Sie selbst ermutigte auch die Internetnutzer: Wenn Sie sich beide Videos ansehen, werden Sie die Computer Vision der letzten 10 Jahre verstehen können.

Oben geschrieben und persönliches Verständnis des Autors: Dieses Papier widmet sich der Lösung der wichtigsten Herausforderungen aktueller multimodaler großer Sprachmodelle (MLLMs) in autonomen Fahranwendungen, nämlich dem Problem der Erweiterung von MLLMs vom 2D-Verständnis auf den 3D-Raum. Diese Erweiterung ist besonders wichtig, da autonome Fahrzeuge (AVs) genaue Entscheidungen über 3D-Umgebungen treffen müssen. Das räumliche 3D-Verständnis ist für AVs von entscheidender Bedeutung, da es sich direkt auf die Fähigkeit des Fahrzeugs auswirkt, fundierte Entscheidungen zu treffen, zukünftige Zustände vorherzusagen und sicher mit der Umgebung zu interagieren. Aktuelle multimodale große Sprachmodelle (wie LLaVA-1.5) können häufig nur Bildeingaben mit niedrigerer Auflösung verarbeiten (z. B. aufgrund von Auflösungsbeschränkungen des visuellen Encoders und Einschränkungen der LLM-Sequenzlänge). Allerdings erfordern autonome Fahranwendungen
