Java로 구현된 키워드 추출 알고리즘 및 응용예제
Java로 구현된 키워드 추출 알고리즘 및 응용 사례
인터넷 시대의 도래로 인해 대용량 텍스트 데이터를 획득하고 분석하는 데 큰 어려움이 발생하고 있으므로 키워드 등 자연어 처리 기술에 대한 연구가 필요합니다. 추출 및 응용. 키워드 추출은 텍스트의 주제를 가장 잘 나타내는 텍스트 조각에서 단어나 구문을 추출하여 텍스트 분류, 검색, 클러스터링과 같은 작업을 지원하는 것을 의미합니다. 이 기사에서는 Java로 구현된 여러 키워드 추출 알고리즘과 응용 예제를 소개합니다.
1. TF-IDF 알고리즘
TF-IDF는 텍스트에서 키워드를 추출하는 데 일반적으로 사용되는 알고리즘입니다. 텍스트에서의 단어 출현 빈도와 전체 코퍼스에서의 출현 빈도를 기준으로 단어의 가중치를 계산합니다. TF는 현재 텍스트에서 단어의 빈도를 나타내며, IDF는 전체 말뭉치에서 단어의 역문서 빈도를 나타냅니다. 계산식은 다음과 같습니다.
TF = (텍스트에서 단어의 출현 횟수) / (텍스트의 총 단어 수)
IDF = log (말뭉치의 총 문서 수 / 해당 단어가 포함된 문서 수)
TF-IDF = TF * IDF
Java 코드 구현:
public Map<String, Double> tfIdf(List<String> docs) { Map<String, Integer> wordFreq = new HashMap<>(); int totalWords = 0; for (String doc : docs) { String[] words = doc.split(" "); for (String word : words) { wordFreq.put(word, wordFreq.getOrDefault(word, 0) + 1); totalWords++; } } Map<String, Double> tfIdf = new HashMap<>(); int docSize = docs.size(); for (String word : wordFreq.keySet()) { double tf = (double) wordFreq.get(word) / totalWords; int docCount = 0; for (String doc : docs) { if (doc.contains(word)) { docCount++; } } double idf = Math.log((double) docSize / (docCount + 1)); tfIdf.put(word, tf * idf); } return tfIdf; }
2. TextRank 알고리즘
TextRank는 텍스트 키워드 추출 및 단어의 동시 발생 관계를 사용하여 그래프를 구성하고 그래프에서 단어의 중요도를 상위 단어로 식별하는 그래프 기반 추상 추출 알고리즘입니다. 키워드나 중요한 문장. TextRank의 핵심 아이디어는 단어 동시 출현 관계를 페이지 간의 링크로 간주하고 단어를 정렬하고 텍스트 내 키워드를 얻는 PageRank 알고리즘입니다. TextRank 알고리즘의 계산 과정은 다음 단계로 구성됩니다.
1. 텍스트에서 단어 또는 구문을 추출하고
2. 단어 동시 발생 관계를 사용하여 단어를 정렬합니다. 각 단어의 PageRank 값을 계산합니다.
4. PageRank 값을 기준으로 상위 순위 단어를 키워드로 선택합니다.
public List<String> textrank(List<String> docs, int numKeywords) { List<String> sentences = new ArrayList<>(); for (String doc : docs) { sentences.addAll(Arrays.asList(doc.split("[。?!;]"))); } List<String> words = new ArrayList<>(); for (String sentence : sentences) { words.addAll(segment(sentence)); } Map<String, Integer> wordFreq = new HashMap<>(); Map<String, Set<String>> wordCooc = new HashMap<>(); for (String word : words) { wordFreq.put(word, wordFreq.getOrDefault(word, 0) + 1); wordCooc.put(word, new HashSet<>()); } for (String sentence : sentences) { List<String> senWords = segment(sentence); for (String w1 : senWords) { if (!wordFreq.containsKey(w1)) { continue; } for (String w2 : senWords) { if (!wordFreq.containsKey(w2)) { continue; } if (!w1.equals(w2)) { wordCooc.get(w1).add(w2); wordCooc.get(w2).add(w1); } } } } Map<String, Double> wordScore = new HashMap<>(); for (String word : words) { double score = 1.0; for (String coocWord : wordCooc.get(word)) { score += wordScore.getOrDefault(coocWord, 1.0) / wordCooc.get(coocWord).size(); } wordScore.put(word, score); } List<Map.Entry<String, Double>> sortedWords = wordScore.entrySet().stream() .sorted(Collections.reverseOrder(Map.Entry.comparingByValue())) .collect(Collectors.toList()); List<String> keywords = new ArrayList<>(); for (int i = 0; i < numKeywords && i < sortedWords.size(); i++) { keywords.add(sortedWords.get(i).getKey()); } return keywords; } private List<String> segment(String text) { // 使用中文分词器分词 // TODO return Arrays.asList(text.split(" ")); }
public List<String> lda(List<String> docs, int numTopics, int numKeywords, int iterations) { List<List<String>> words = new ArrayList<>(); for (String doc : docs) { words.add(segment(doc)); } Dictionary dictionary = new Dictionary(words); Corpus corpus = new Corpus(dictionary); for (List<String> docWords : words) { Document doc = new Document(dictionary); for (String word : docWords) { doc.addWord(new Word(word)); } corpus.addDocument(doc); } LdaGibbsSampler sampler = new LdaGibbsSampler(corpus, numTopics, 0.5, 0.1); sampler.gibbs(iterations); List<String> keywords = new ArrayList<>(); for (int i = 0; i < numTopics; i++) { List<WordProbability> wordProbs = sampler.getSortedWordsByWeight(i); for (int j = 0; j < numKeywords && j < wordProbs.size(); j++) { keywords.add(wordProbs.get(j).getWord().getName()); } } return keywords; } private List<String> segment(String text) { // 使用中文分词器分词 // TODO return Arrays.asList(text.split(" ")); }
위 내용은 Java로 구현된 키워드 추출 알고리즘 및 응용예제의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











Java의 Weka 가이드. 여기에서는 소개, weka java 사용 방법, 플랫폼 유형 및 장점을 예제와 함께 설명합니다.

Java의 Smith Number 가이드. 여기서는 정의, Java에서 스미스 번호를 확인하는 방법에 대해 논의합니다. 코드 구현의 예.

이 기사에서는 가장 많이 묻는 Java Spring 면접 질문과 자세한 답변을 보관했습니다. 그래야 면접에 합격할 수 있습니다.

Java 8은 스트림 API를 소개하여 데이터 컬렉션을 처리하는 강력하고 표현적인 방법을 제공합니다. 그러나 스트림을 사용할 때 일반적인 질문은 다음과 같은 것입니다. 기존 루프는 조기 중단 또는 반환을 허용하지만 스트림의 Foreach 메소드는이 방법을 직접 지원하지 않습니다. 이 기사는 이유를 설명하고 스트림 처리 시스템에서 조기 종료를 구현하기위한 대체 방법을 탐색합니다. 추가 읽기 : Java Stream API 개선 스트림 foreach를 이해하십시오 Foreach 메소드는 스트림의 각 요소에서 하나의 작업을 수행하는 터미널 작동입니다. 디자인 의도입니다

Java의 TimeStamp to Date 안내. 여기서는 소개와 예제와 함께 Java에서 타임스탬프를 날짜로 변환하는 방법에 대해서도 설명합니다.

캡슐은 3 차원 기하학적 그림이며, 양쪽 끝에 실린더와 반구로 구성됩니다. 캡슐의 부피는 실린더의 부피와 양쪽 끝에 반구의 부피를 첨가하여 계산할 수 있습니다. 이 튜토리얼은 다른 방법을 사용하여 Java에서 주어진 캡슐의 부피를 계산하는 방법에 대해 논의합니다. 캡슐 볼륨 공식 캡슐 볼륨에 대한 공식은 다음과 같습니다. 캡슐 부피 = 원통형 볼륨 2 반구 볼륨 안에, R : 반구의 반경. H : 실린더의 높이 (반구 제외). 예 1 입력하다 반경 = 5 단위 높이 = 10 단위 산출 볼륨 = 1570.8 입방 단위 설명하다 공식을 사용하여 볼륨 계산 : 부피 = π × r2 × h (4

Spring Boot는 강력하고 확장 가능하며 생산 가능한 Java 응용 프로그램의 생성을 단순화하여 Java 개발에 혁명을 일으킨다. Spring Ecosystem에 내재 된 "구성에 대한 협약"접근 방식은 수동 설정, Allo를 최소화합니다.
