Actor-Critic의 DDPG 강화 학습 알고리즘을 사용하여 이중 관절 로봇 팔 제어
이 기사에서는 Unity ML-Agents 툴킷을 사용하여 개발된 Unity 기반 시뮬레이션 프로그램인 Reacher 환경에서 이중 관절 로봇 팔을 제어하기 위한 지능형 에이전트 교육을 소개합니다. 우리의 목표는 높은 정확도로 목표 위치에 도달하는 것입니다. 따라서 여기서는 연속 상태 및 행동 공간을 위해 설계된 최첨단 DDPG(Deep Deterministic Policy Gradient) 알고리즘을 사용할 수 있습니다.
실제 응용
로봇 팔은 제조, 생산 시설, 우주 탐사, 수색 및 구조 작업에서 핵심적인 역할을 합니다. 높은 정밀도와 유연성으로 로봇 팔을 제어하는 것은 매우 중요합니다. 강화 학습 기술을 사용하면 이러한 로봇 시스템이 실시간으로 행동을 학습하고 조정하여 성능과 유연성을 향상시킬 수 있습니다. 강화 학습의 발전은 인공 지능에 대한 이해에 기여할 뿐만 아니라 산업에 혁명을 일으키고 사회에 의미 있는 영향을 미칠 수 있는 잠재력을 가지고 있습니다.
Reacher는 제어 알고리즘의 개발 및 테스트에 자주 사용되는 로봇 팔 시뮬레이터입니다. 로봇 팔의 물리적 특성과 동작 법칙을 시뮬레이션하는 가상 환경을 제공하므로 개발자는 실제 하드웨어 없이도 제어 알고리즘에 대한 연구와 실험을 수행할 수 있습니다.
Reacher의 환경은 주로 다음 부분으로 구성됩니다.
- 로봇 팔: Reacher는 고정 베이스와 두 개의 이동식 관절을 포함하여 이중 관절 로봇 팔을 시뮬레이션합니다. 개발자는 두 개의 관절을 제어하여 로봇 팔의 자세와 위치를 변경할 수 있습니다.
- 목표 지점: 로봇 팔의 이동 범위 내에서 Reacher는 목표 지점을 제공하며 목표 지점의 위치는 무작위로 생성됩니다. 개발자의 임무는 로봇팔의 끝부분이 목표지점에 닿을 수 있도록 로봇팔을 제어하는 것입니다.
- 물리 엔진: Reacher는 물리 엔진을 사용하여 로봇 팔의 물리적 특성과 움직임 패턴을 시뮬레이션합니다. 개발자는 물리 엔진의 매개변수를 조정하여 다양한 물리적 환경을 시뮬레이션할 수 있습니다.
- 시각적 인터페이스: Reacher는 로봇 팔의 위치와 목표 지점은 물론 로봇 팔의 자세와 이동 궤적을 표시할 수 있는 시각적 인터페이스를 제공합니다. 개발자는 시각적 인터페이스를 통해 제어 알고리즘을 디버깅하고 최적화할 수 있습니다.
Reacher 시뮬레이터는 개발자가 실제 하드웨어 없이 제어 알고리즘을 빠르게 테스트하고 최적화하는 데 도움이 되는 매우 실용적인 도구입니다.
시뮬레이션 환경
Reacher는 Unity ML-Agents 툴킷을 사용하여 구축되었으며 에이전트는 이중 관절 로봇 팔을 제어할 수 있습니다. 목표는 팔을 목표 위치쪽으로 유도하고 목표 영역 내에서 가능한 한 오랫동안 위치를 유지하는 것입니다. 이 환경에는 각각 독립적으로 실행되는 20개의 동기화된 에이전트가 있어 훈련 중에 경험을 효율적으로 수집하는 데 도움이 됩니다.
상태 및 동작 공간
상태 및 동작 공간을 이해하는 것은 효과적인 강화 학습 알고리즘을 설계하는 데 중요합니다. Reacher 환경에서 상태 공간은 위치, 회전, 속도, 각속도 등 로봇 팔에 대한 정보를 제공하는 33개의 연속 변수로 구성됩니다. 동작 공간도 연속적이며 로봇 팔의 두 관절에 가해지는 토크에 해당하는 4개의 변수가 있습니다. 각 작업 변수는 -1과 1 사이의 실수입니다.
작업 유형 및 성공 기준
Reacher 작업은 각 조각에 고정된 수의 시간 단계가 포함된 에피소드로 간주됩니다. 에이전트의 목표는 이러한 단계에서 총 보상을 최대화하는 것입니다. 팔 엔드 이펙터는 목표 위치를 유지하는 데 걸리는 각 단계에 대해 +0.1 보너스를 받습니다. 에이전트가 100회 이상의 연속 작업에서 평균 점수 30점 이상을 달성하면 성공으로 간주됩니다.
환경을 이해하면서 아래에서는 DDPG 알고리즘, 구현 및 이 환경에서 연속 제어 문제를 효과적으로 해결하는 방법을 살펴보겠습니다.
연속 제어를 위한 알고리즘 선택: DDPG
리처 문제와 같은 연속 제어 작업의 경우 최적의 성능을 달성하려면 알고리즘 선택이 중요합니다. 이 프로젝트에서 우리는 DDPG 알고리즘을 선택했는데, 이는 연속 상태 및 행동 공간을 처리하기 위해 특별히 설계된 배우-비평 방법이기 때문입니다.
DDPG 알고리즘은 두 개의 신경망을 결합하여 정책 기반 방법과 가치 기반 방법의 장점을 결합합니다. 행위자 네트워크는 현재 상태에서 최상의 행동을 결정하고 비판 네트워크는 상태-행동 가치 함수(Q-함수)를 추정합니다. ). 두 가지 유형의 네트워크 모두 업데이트 프로세스 중에 고정된 목표를 제공하여 학습 프로세스를 안정화하는 목표 네트워크를 가지고 있습니다.
DDPG 알고리즘은 q 함수를 추정하기 위해 Critic 네트워크를 사용하고 최적의 행동을 결정하기 위해 Actor 네트워크를 사용함으로써 정책 경사 방법과 DQN의 장점을 효과적으로 결합합니다. 이 하이브리드 접근 방식을 통해 에이전트는 지속적인 제어 환경에서 효율적으로 학습할 수 있습니다.
<code>import random from collections import deque import torch import torch.nn as nn import numpy as np from actor_critic import Actor, Critic class ReplayBuffer: def __init__(self, buffer_size, batch_size): self.memory = deque(maxlen=buffer_size) self.batch_size = batch_size def add(self, state, action, reward, next_state, done): self.memory.append((state, action, reward, next_state, done)) def sample(self): batch = random.sample(self.memory, self.batch_size) states, actions, rewards, next_states, dones = zip(*batch) return states, actions, rewards, next_states, dones def __len__(self): return len(self.memory) class DDPG: def __init__(self, state_dim, action_dim, hidden_dim, buffer_size, batch_size, actor_lr, critic_lr, tau, gamma): self.actor = Actor(state_dim, hidden_dim, action_dim, actor_lr) self.actor_target = Actor(state_dim, hidden_dim, action_dim, actor_lr) self.critic = Critic(state_dim, action_dim, hidden_dim, critic_lr) self.critic_target = Critic(state_dim, action_dim, hidden_dim, critic_lr) self.memory = ReplayBuffer(buffer_size, batch_size) self.batch_size = batch_size self.tau = tau self.gamma = gamma self._update_target_networks(tau=1)# initialize target networks def act(self, state, noise=0.0): state = torch.tensor(state, dtype=torch.float32).unsqueeze(0) action = self.actor(state).detach().numpy()[0] return np.clip(action + noise, -1, 1) def store_transition(self, state, action, reward, next_state, done): self.memory.add(state, action, reward, next_state, done) def learn(self): if len(self.memory) </code>
위 코드에서도 Replay Buffer를 사용하여 학습 효율성과 안정성을 향상시킬 수 있습니다. 재생 버퍼는 본질적으로 상태, 행동, 보상, 다음 상태 및 완료 정보로 구성된 고정된 수의 과거 경험 또는 전환을 저장하는 메모리 데이터 구조입니다. 이를 사용하는 주요 이점은 에이전트가 연속 경험 간의 상관 관계를 끊을 수 있도록 하여 유해한 시간적 상관 관계의 영향을 줄이는 것입니다.
버퍼에서 임의의 미니 배치 경험을 추출하여 에이전트는 다양한 변환 세트에서 학습할 수 있으며 이는 학습 프로세스를 안정화하고 일반화하는 데 도움이 됩니다. 또한 재생 버퍼를 사용하면 에이전트가 과거 경험을 여러 번 재사용할 수 있으므로 데이터 효율성이 향상되고 환경과의 제한된 상호 작용을 통해 보다 효과적인 학습이 촉진됩니다.
DDPG 알고리즘은 이 환경의 핵심 측면인 연속적인 행동 공간을 효율적으로 처리하는 능력 때문에 좋은 선택입니다. 알고리즘 설계를 통해 여러 에이전트가 수집한 병렬 경험을 효율적으로 활용할 수 있어 더 빠른 학습과 더 나은 수렴이 가능합니다. 위에서 소개한 Reacher처럼 동시에 20개의 에이전트를 실행할 수 있기 때문에 이 20개의 에이전트를 활용하여 경험을 공유하고, 집단적으로 학습하며, 학습 속도를 높일 수 있습니다.
알고리즘이 완성되었습니다. 다음으로 하이퍼파라미터 선택 및 학습 과정을 소개하겠습니다.
DDPG 알고리즘은 Reacher 환경에서 작동합니다
환경에서 알고리즘의 효과를 더 잘 이해하려면 학습 프로세스와 관련된 주요 구성 요소와 단계를 자세히 살펴볼 필요가 있습니다.
Network Architecture
DDPG 알고리즘은 Actor와 Critic이라는 두 가지 신경망을 사용합니다. 두 네트워크 모두 2개의 숨겨진 레이어를 포함하며 각각 400개의 노드를 포함합니다. 히든 레이어는 ReLU(Rectified Linear Unit) 활성화 함수를 사용하는 반면, Actor 네트워크의 출력 레이어는 tanh 활성화 함수를 사용하여 -1에서 1 사이의 동작을 생성합니다. 비판적 네트워크의 출력 레이어에는 q 함수를 직접 추정하기 때문에 활성화 함수가 없습니다.
다음은 네트워크의 코드입니다.
<code>import numpy as np import torch import torch.nn as nn import torch.optim as optim class Actor(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim, learning_rate=1e-4): super(Actor, self).__init__() self.fc1 = nn.Linear(input_dim, hidden_dim) self.fc2 = nn.Linear(hidden_dim, hidden_dim) self.fc3 = nn.Linear(hidden_dim, output_dim) self.tanh = nn.Tanh() self.optimizer = optim.Adam(self.parameters(), lr=learning_rate) def forward(self, state): x = torch.relu(self.fc1(state)) x = torch.relu(self.fc2(x)) x = self.tanh(self.fc3(x)) return x class Critic(nn.Module): def __init__(self, state_dim, action_dim, hidden_dim, learning_rate=1e-4): super(Critic, self).__init__() self.fc1 = nn.Linear(state_dim, hidden_dim) self.fc2 = nn.Linear(hidden_dim + action_dim, hidden_dim) self.fc3 = nn.Linear(hidden_dim, 1) self.optimizer = optim.Adam(self.parameters(), lr=learning_rate) def forward(self, state, action): x = torch.relu(self.fc1(state)) x = torch.relu(self.fc2(torch.cat([x, action], dim=1))) x = self.fc3(x) return x</code>
하이퍼파라미터 선택
선택된 하이퍼파라미터는 효율적인 학습에 중요합니다. 이 프로젝트에서 재생 버퍼 크기는 200,000이고 배치 크기는 256입니다. Actor의 학습률은 5e-4, Critic의 학습률은 1e-3, 소프트 업데이트 매개변수(tau)는 5e-3, 감마는 0.995입니다. 마지막으로 초기 노이즈 스케일이 0.5이고 노이즈 감쇠율이 0.998인 동작 노이즈가 추가되었습니다.
훈련 프로세스
훈련 과정에는 두 네트워크 간의 지속적인 상호 작용이 포함되며, 동일한 네트워크를 공유하는 20개의 병렬 에이전트를 통해 모델은 모든 에이전트가 수집한 경험을 통해 집합적으로 학습합니다. 이 설정은 학습 과정의 속도를 높이고 효율성을 높입니다.
<code>from collections import deque import numpy as np import torch from ddpg import DDPG def train_ddpg(env, agent, episodes, max_steps, num_agents, noise_scale=0.1, noise_decay=0.99): scores_window = deque(maxlen=100) scores = [] for episode in range(1, episodes + 1): env_info = env.reset(train_mode=True)[brain_name] states = env_info.vector_observations agent_scores = np.zeros(num_agents) for step in range(max_steps): actions = agent.act(states, noise_scale) env_info = env.step(actions)[brain_name] next_states = env_info.vector_observations rewards = env_info.rewards dones = env_info.local_done for i in range(num_agents): agent.store_transition(states[i], actions[i], rewards[i], next_states[i], dones[i]) agent.learn() states = next_states agent_scores += rewards noise_scale *= noise_decay if np.any(dones): break avg_score = np.mean(agent_scores) scores_window.append(avg_score) scores.append(avg_score) if episode % 10 == 0: print(f"Episode: {episode}, Score: {avg_score:.2f}, Avg Score: {np.mean(scores_window):.2f}") # Saving trained Networks torch.save(agent.actor.state_dict(), "actor_final.pth") torch.save(agent.critic.state_dict(), "critic_final.pth") return scores if __name__ == "__main__": env = UnityEnvironment(file_name='Reacher_20.app') brain_name = env.brain_names[0] brain = env.brains[brain_name] state_dim = 33 action_dim = brain.vector_action_space_size num_agents = 20 # Hyperparameter suggestions hidden_dim = 400 batch_size = 256 actor_lr = 5e-4 critic_lr = 1e-3 tau = 5e-3 gamma = 0.995 noise_scale = 0.5 noise_decay = 0.998 agent = DDPG(state_dim, action_dim, hidden_dim=hidden_dim, buffer_size=200000, batch_size=batch_size,actor_lr=actor_lr, critic_lr=critic_lr, tau=tau, gamma=gamma) episodes = 200 max_steps = 1000 scores = train_ddpg(env, agent, episodes, max_steps, num_agents, noise_scale=0.2, noise_decay=0.995)</code>
훈련 과정의 주요 단계는 다음과 같습니다:
네트워크 초기화: 에이전트는 공유된 배우 및 비평가 네트워크와 각각의 대상 네트워크를 무작위 가중치로 초기화합니다. 타겟 네트워크는 업데이트 중에 안정적인 학습 타겟을 제공합니다.
- 환경과 상호 작용: 각 에이전트는 공유된 행위자 네트워크를 사용하여 현재 상태에 따라 작업을 선택함으로써 환경과 상호 작용합니다. 탐색을 장려하기 위해 훈련 초기 단계의 작업에 노이즈 용어도 추가됩니다. 조치를 취한 후 각 에이전트는 결과 보상과 다음 상태를 관찰합니다.
- 경험 저장: 각 에이전트는 관찰된 경험(상태, 행동, 보상, next_state)을 공유 재생 버퍼에 저장합니다. 이 버퍼에는 각 에이전트가 모든 에이전트가 수집한 다양한 전환으로부터 학습할 수 있도록 고정된 양의 최근 경험이 포함되어 있습니다.
- 경험에서 배우기: 공유 재생 버퍼에서 주기적으로 일련의 경험을 그립니다. 샘플링 경험을 사용하여 예측 Q-값과 목표 Q-값 사이의 평균 제곱 오차를 최소화하여 공유 비판 네트워크를 업데이트합니다.
- 업데이트 행위자 네트워크: 공유 행위자 네트워크는 선택한 작업과 관련하여 공유된 비평가 네트워크의 출력 기울기를 취하여 계산되는 정책 기울기를 사용하여 업데이트됩니다. 공유 행위자 네트워크는 예상되는 Q-값을 최대화하는 동작을 선택하는 방법을 학습합니다.
- 대상 네트워크 업데이트: 공유된 배우 및 비평가 대상 네트워크는 현재 및 대상 네트워크 가중치의 혼합을 사용하여 소프트 업데이트됩니다. 이를 통해 안정적인 학습 과정이 보장됩니다.
결과 표시
저희 에이전트는 DDPG 알고리즘을 사용하여 Racher 환경에서 이중 관절 로봇 팔을 제어하는 방법을 성공적으로 학습했습니다. 훈련 과정 전반에 걸쳐 에이전트 20명의 평균 점수를 기준으로 에이전트의 성과를 모니터링합니다. 에이전트가 환경을 탐색하고 경험을 수집함에 따라 보상 극대화를 위한 최적의 행동을 예측하는 능력이 크게 향상됩니다.
에이전트의 성능은 훈련 과정 전반에 걸쳐 다양했지만 평균 점수가 환경을 해결하는 데 필요한 임계값(30+)을 초과하는 등 작업에 상당한 숙련도를 보인 것을 볼 수 있습니다. 이는 학습 과정이 성공했음을 나타냅니다.
아래 그래프는 상담원 20명의 평균 점수를 보여줍니다.
우리가 구현한 DDPG 알고리즘이 Racher 환경의 문제를 효과적으로 해결한 것을 확인할 수 있습니다. 에이전트는 자신의 행동을 조정하고 작업에서 예상되는 성과를 달성할 수 있습니다.
다음 단계
이 프로젝트의 하이퍼파라미터는 문헌의 권장 사항과 경험적 테스트를 조합하여 선택되었습니다. 시스템 하이퍼파라미터 튜닝을 통한 추가 최적화로 인해 성능이 향상될 수 있습니다.
다중 에이전트 병렬 교육: 이 프로젝트에서는 20명의 에이전트를 사용하여 동시에 경험을 수집합니다. 전체 학습 프로세스에 더 많은 에이전트를 사용하면 수렴 속도가 빨라지거나 성능이 향상될 수 있습니다.
일괄 정규화: 학습 프로세스를 더욱 향상시키려면 신경망 아키텍처에서 일괄 정규화를 구현하는 것이 좋습니다. 훈련 중에 각 계층의 입력 기능을 정규화함으로써 배치 정규화는 내부 공변량 이동을 줄이고 학습 속도를 높이며 잠재적으로 일반화를 향상시키는 데 도움이 될 수 있습니다. 배우 및 비평가 네트워크에 배치 정규화를 추가하면 보다 안정적이고 효율적인 교육이 가능하지만 이를 위해서는 추가 테스트가 필요합니다.
위 내용은 Actor-Critic의 DDPG 강화 학습 알고리즘을 사용하여 이중 관절 로봇 팔 제어의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











이 사이트는 6월 27일에 Jianying이 ByteDance의 자회사인 FaceMeng Technology에서 개발한 비디오 편집 소프트웨어라고 보도했습니다. 이 소프트웨어는 Douyin 플랫폼을 기반으로 하며 기본적으로 플랫폼 사용자를 위한 짧은 비디오 콘텐츠를 제작합니다. Windows, MacOS 및 기타 운영 체제. Jianying은 멤버십 시스템 업그레이드를 공식 발표하고 지능형 번역, 지능형 하이라이트, 지능형 패키징, 디지털 인간 합성 등 다양한 AI 블랙 기술을 포함하는 새로운 SVIP를 출시했습니다. 가격면에서 SVIP 클리핑 월 요금은 79위안, 연간 요금은 599위안(본 사이트 참고: 월 49.9위안에 해당), 월간 연속 구독료는 월 59위안, 연간 연속 구독료는 59위안입니다. 연간 499위안(월 41.6위안)입니다. 또한, 컷 관계자는 "사용자 경험 향상을 위해 기존 VIP에 가입하신 분들도

검색 강화 생성 및 의미론적 메모리를 AI 코딩 도우미에 통합하여 개발자 생산성, 효율성 및 정확성을 향상시킵니다. EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG에서 번역됨, 저자 JanakiramMSV. 기본 AI 프로그래밍 도우미는 자연스럽게 도움이 되지만, 소프트웨어 언어에 대한 일반적인 이해와 소프트웨어 작성의 가장 일반적인 패턴에 의존하기 때문에 가장 관련성이 높고 정확한 코드 제안을 제공하지 못하는 경우가 많습니다. 이러한 코딩 도우미가 생성한 코드는 자신이 해결해야 할 문제를 해결하는 데 적합하지만 개별 팀의 코딩 표준, 규칙 및 스타일을 따르지 않는 경우가 많습니다. 이로 인해 코드가 애플리케이션에 승인되기 위해 수정되거나 개선되어야 하는 제안이 나타나는 경우가 많습니다.

LLM(대형 언어 모델)은 대규모 텍스트 데이터베이스에서 훈련되어 대량의 실제 지식을 습득합니다. 이 지식은 매개변수에 내장되어 필요할 때 사용할 수 있습니다. 이러한 모델에 대한 지식은 훈련이 끝나면 "구체화"됩니다. 사전 훈련이 끝나면 모델은 실제로 학습을 중단합니다. 모델을 정렬하거나 미세 조정하여 이 지식을 활용하고 사용자 질문에 보다 자연스럽게 응답하는 방법을 알아보세요. 그러나 때로는 모델 지식만으로는 충분하지 않을 때도 있으며, 모델이 RAG를 통해 외부 콘텐츠에 접근할 수 있더라도 미세 조정을 통해 모델을 새로운 도메인에 적응시키는 것이 유익한 것으로 간주됩니다. 이러한 미세 조정은 인간 주석 작성자 또는 기타 LLM 생성자의 입력을 사용하여 수행됩니다. 여기서 모델은 추가적인 실제 지식을 접하고 이를 통합합니다.

AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.

편집자 |ScienceAI 질문 응답(QA) 데이터 세트는 자연어 처리(NLP) 연구를 촉진하는 데 중요한 역할을 합니다. 고품질 QA 데이터 세트는 모델을 미세 조정하는 데 사용될 수 있을 뿐만 아니라 LLM(대형 언어 모델)의 기능, 특히 과학적 지식을 이해하고 추론하는 능력을 효과적으로 평가하는 데에도 사용할 수 있습니다. 현재 의학, 화학, 생물학 및 기타 분야를 포괄하는 과학적인 QA 데이터 세트가 많이 있지만 이러한 데이터 세트에는 여전히 몇 가지 단점이 있습니다. 첫째, 데이터 형식이 비교적 단순하고 대부분이 객관식 질문이므로 평가하기 쉽지만 모델의 답변 선택 범위가 제한되고 모델의 과학적 질문 답변 능력을 완전히 테스트할 수 없습니다. 이에 비해 개방형 Q&A는

머신 러닝은 명시적으로 프로그래밍하지 않고도 컴퓨터가 데이터로부터 학습하고 능력을 향상시킬 수 있는 능력을 제공하는 인공 지능의 중요한 분야입니다. 머신러닝은 이미지 인식, 자연어 처리, 추천 시스템, 사기 탐지 등 다양한 분야에서 폭넓게 활용되며 우리의 삶의 방식을 변화시키고 있습니다. 기계 학습 분야에는 다양한 방법과 이론이 있으며, 그 중 가장 영향력 있는 5가지 방법을 "기계 학습의 5개 학교"라고 합니다. 5개 주요 학파는 상징학파, 연결주의 학파, 진화학파, 베이지안 학파, 유추학파이다. 1. 상징주의라고도 알려진 상징주의는 논리적 추론과 지식 표현을 위해 상징을 사용하는 것을 강조합니다. 이 사고 학교는 학습이 기존을 통한 역연역 과정이라고 믿습니다.

Editor | KX 약물 연구 및 개발 분야에서 단백질과 리간드의 결합 친화도를 정확하고 효과적으로 예측하는 것은 약물 스크리닝 및 최적화에 매우 중요합니다. 그러나 현재 연구에서는 단백질-리간드 상호작용에서 분자 표면 정보의 중요한 역할을 고려하지 않습니다. 이를 기반으로 Xiamen University의 연구자들은 처음으로 단백질 표면, 3D 구조 및 서열에 대한 정보를 결합하고 교차 주의 메커니즘을 사용하여 다양한 양식 특징을 비교하는 새로운 다중 모드 특징 추출(MFE) 프레임워크를 제안했습니다. 조정. 실험 결과는 이 방법이 단백질-리간드 결합 친화도를 예측하는 데 있어 최첨단 성능을 달성한다는 것을 보여줍니다. 또한 절제 연구는 이 프레임워크 내에서 단백질 표면 정보와 다중 모드 기능 정렬의 효율성과 필요성을 보여줍니다. 관련 연구는 "S"로 시작된다

1일 본 사이트 소식에 따르면 SK하이닉스는 오늘(1일) 블로그 게시물을 통해 8월 6일부터 8일까지 미국 캘리포니아주 산타클라라에서 열리는 글로벌 반도체 메모리 서밋 FMS2024에 참가한다고 밝혔다. 많은 새로운 세대의 제품. 인공지능 기술에 대한 관심이 높아지고 있는 가운데, 이전에는 주로 NAND 공급업체를 대상으로 한 플래시 메모리 서밋(FlashMemorySummit)이었던 미래 메모리 및 스토리지 서밋(FutureMemoryandStorage) 소개를 올해는 미래 메모리 및 스토리지 서밋(FutureMemoryandStorage)으로 명칭을 변경했습니다. DRAM 및 스토리지 공급업체와 더 많은 플레이어를 초대하세요. SK하이닉스가 지난해 출시한 신제품
