1、关系数据库介绍_MySQL
bitsCN.com
目前经常使用的数据库的包括Oracle数据库、MySQL数据库、Microsoft SQL Server数据库、DB2数据库等。
数据模型是对现实世界数据特征的一种抽象。一个完整的数据模型包括数据结构、数据操作和完整性约束三部分。在数据模型多级描述中,主要包括概念模型、逻辑数据模型和物理数据模型。概念模型是以客户的观点和想法为基础,对现实世界事物的抽象;逻辑数据模型是指用户看到的数据库中的数据模型,常用的是关系数据模型;物理数据模型是用来表示数据的存储结构的。
1.概念模型
在关系数据库的设计中,概念模型通常是通过E-R图来描述的。其中,E表示实体的意思;R表示关系的意思。因此E—R图也叫做实体—关系图。
在E-R图中,关系是用来表示实体与实体之间相互联系的。关系可以分为一对一,一对多和多对多三种类型。
一对一(1:1):例如,校长和学校的关系
一对多(1:n):例如,院系和学生之间的关系。
多对多(n:m):例如,课程与授课教师之间关系。
2.关系数据模型
在数据库管理系统的实现中,关系数据模型是通过二维表的形式描述实体与属性之间的关系。
关系数据模型中的表与一般的二维表相比,还是有些不同的。
a.关系是一种规范化的二维表格,每一个属性值都是不可再分的。
b.关系数据模型的二维表中,不会有重复的行。即关系数据模型的二维表中每一行的数据都应该是不同的。
关系数据模型中,常用的关系操作主要包括查询、连接、交、并、差、数据插入、修改和删除的操作。这些操作需要满足一定的关系完整性约束条件。关系的完整性约束包括实体完整性、参照完整性和用户定义完整性。
3.关系模式
关系模式是用来表示对关系的描述。关系数据库中共有3种关系模式,概念模式、外模式和内模式。
模式(Schema):也叫做逻辑模式或者概念模式,用来描述数据库中的数据逻辑结构。可以把概念模式理解为现实世界中的实体在数据库系统中的具体实现。例如,一个关系逻辑结构对应的一个二维数据表,就可以理解为关系数据库中的模式。概念模式与应用程序和计算机硬件等环境无关。
外模式(External Schema):外模式也可以也叫做用户模式,它是概念模式的一部分。在外模式中定义了允许用户操作的数据,例如,在数据库中用户看到的视图就可以理解为关系数据库中的外模式。当然,在关系数据库中由于用户的需求、存储数据的不同,不同数据的外模式也不是完全相同的。
内模式(Internal Schema):内模式也叫做存储模式,它是用来描述数据的物理结构和数据的存储方式的。例如,关系数据库中索引的组织方式、数据记录的存储方式等就可以理解为关系数据库的内模式。
4.常用关系数据库
a.Oracle数据库
Oracle数据库是美国Oracle公司(甲骨文)推出的关系数据库系统,它是目前主流的广泛使用的数据库系统之一。作为大型的数据库系统,Oracle数据库提供了完整的数据管理功能,主要作用与大、中型应用系统、C/S(客户端/服务器)、B/S(浏览器/服务器)系统中的服务器端。对于数据量大、并发操作多,实时性要求高的系统,服务器端的数据库一般都选择Oracle数据库。
b.Microsoft SQL Server数据库
Microsoft SQL Server数据库是Microsoft公司(微软)推出的关系数据库系。也是目前主流的广泛使用的数据库系统之一。SQL Server数据库具有高性能、可扩展、先进的系统管理、支持WINDOWS图形化管理工具、很好的事务处理功能等特点。
c.MySQL数据库
MySQL是瑞典的MySQL AB公司开发的一款功能强大、使用灵活、多用户、多线程SQL的数据库管理系统。为用户提供了丰富的应用程序接口和非常有用的功能集,是互联网中流行的数据库服务器,很多软件开发人员和商业用户也都在使用MySQL数据库。

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

Oracle 데이터베이스 로그의 보존 기간은 다음을 포함한 로그 유형 및 구성에 따라 다릅니다. 재실행 로그: "LOG_ARCHIVE_DEST" 매개변수로 구성된 최대 크기에 의해 결정됩니다. 보관된 리두 로그: "DB_RECOVERY_FILE_DEST_SIZE" 매개변수로 구성된 최대 크기에 따라 결정됩니다. 온라인 리두 로그: 보관되지 않고 데이터베이스를 다시 시작하면 손실되며 보존 기간은 인스턴스 실행 시간과 일치합니다. 감사 로그: "AUDIT_TRAIL" 매개변수로 구성되며 기본적으로 30일 동안 보관됩니다.

Oracle 데이터베이스 시작 순서는 다음과 같습니다. 1. 전제 조건을 확인합니다. 3. 데이터베이스 인스턴스를 시작합니다. 5. 데이터베이스에 연결합니다. . 서비스를 활성화합니다(필요한 경우). 8. 연결을 테스트합니다.

1. 소개 지난 몇 년 동안 YOLO는 계산 비용과 감지 성능 간의 효과적인 균형으로 인해 실시간 객체 감지 분야에서 지배적인 패러다임이 되었습니다. 연구원들은 YOLO의 아키텍처 설계, 최적화 목표, 데이터 확장 전략 등을 탐색하여 상당한 진전을 이루었습니다. 동시에 사후 처리를 위해 NMS(비최대 억제)에 의존하면 YOLO의 엔드투엔드 배포가 방해되고 추론 대기 시간에 부정적인 영향을 미칩니다. YOLO에서는 다양한 구성 요소의 설계에 포괄적이고 철저한 검사가 부족하여 상당한 계산 중복이 발생하고 모델 기능이 제한됩니다. 이는 최적이 아닌 효율성을 제공하며 성능 향상을 위한 상대적으로 큰 잠재력을 제공합니다. 이 작업의 목표는 사후 처리와 모델 아키텍처 모두에서 YOLO의 성능 효율성 경계를 더욱 향상시키는 것입니다. 이를 위해

Oracle 데이터베이스 서버 하드웨어 구성 요구 사항: 프로세서: 기본 주파수가 2.5GHz 이상인 멀티 코어, 대규모 데이터베이스의 경우 32개 이상의 코어가 권장됩니다. 메모리: 소규모 데이터베이스의 경우 최소 8GB, 중간 크기의 경우 16~64GB, 대규모 데이터베이스 또는 과도한 작업 부하의 경우 최대 512GB 이상. 스토리지: SSD 또는 NVMe 디스크, 중복성 및 성능을 위한 RAID 어레이. 네트워크: 고속 네트워크(10GbE 이상), 전용 네트워크 카드, 지연 시간이 짧은 네트워크. 기타: 안정적인 전원 공급 장치, 이중 구성 요소, 호환 가능한 운영 체제 및 소프트웨어, 열 방출 및 냉각 시스템.

Oracle에 필요한 메모리 양은 데이터베이스 크기, 활동 수준 및 필요한 성능 수준(데이터 버퍼 저장, 인덱스 버퍼, SQL 문 실행 및 데이터 사전 캐시 관리에 필요)에 따라 다릅니다. 정확한 양은 데이터베이스 크기, 활동 수준 및 필요한 성능 수준에 따라 달라집니다. 모범 사례에는 적절한 SGA 크기 설정, SGA 구성 요소 크기 조정, AMM 사용 및 메모리 사용량 모니터링이 포함됩니다.

소프트웨어 기술의 선두에 있는 UIUC Zhang Lingming 그룹은 BigCode 조직의 연구원들과 함께 최근 StarCoder2-15B-Instruct 대규모 코드 모델을 발표했습니다. 이 혁신적인 성과는 코드 생성 작업에서 획기적인 발전을 이루었으며 CodeLlama-70B-Instruct를 성공적으로 능가하고 코드 생성 성능 목록의 최상위에 올랐습니다. StarCoder2-15B-Instruct의 독창성은 순수한 자체 정렬 전략에 있습니다. 전체 훈련 프로세스는 개방적이고 투명하며 완전히 자율적이고 제어 가능합니다. 이 모델은 값비싼 수동 주석에 의존하지 않고 StarCoder-15B 기본 모델을 미세 조정한 것에 대한 응답으로 StarCoder2-15B를 통해 수천 개의 명령을 생성합니다.

대규모 언어 모델(LLM)을 인간의 가치와 의도에 맞추려면 인간의 피드백을 학습하여 유용하고 정직하며 무해한지 확인하는 것이 중요합니다. LLM 정렬 측면에서 효과적인 방법은 인간 피드백 기반 강화 학습(RLHF)입니다. RLHF 방법의 결과는 훌륭하지만 몇 가지 최적화 문제가 있습니다. 여기에는 보상 모델을 훈련한 다음 해당 보상을 극대화하기 위해 정책 모델을 최적화하는 것이 포함됩니다. 최근 일부 연구자들은 더 간단한 오프라인 알고리즘을 탐구했는데, 그 중 하나가 직접 선호 최적화(DPO)입니다. DPO는 RLHF의 보상 기능을 매개변수화하여 선호도 데이터를 기반으로 직접 정책 모델을 학습하므로 명시적인 보상 모델이 필요하지 않습니다. 이 방법은 간단하고 안정적입니다.
