분류 전체보기20 Autonomous Agents, Simulation with Agents 짧은 시간 동안 찾아보고 생각을 정리한 글이므로 틀린 정보가 있을 수 있습니다. Autonomous Agents OpenAI의 ChatGPT 이전부터 현재까지 LLM(Large Language Models)은 빠르게 발전 중이며 이제는 하나의 역할을 수행하는 Agent를 정의하고 동작하는데 사용할 수 있게 되었다. 이를 통해 잘 질문해야만 잘 답변 받았던 이전과 달리 "대충" 질문해도 좋은 답변을 받을 수 있게 되었다. 어떻게 하나의 역할을 수행하는지 알아보자. 대표적인 LLM을 통한 Autonomous Agent 중 하나인 Baby AGI는 위와 같이 내재적으로 질문에 대한 과제를 만들고 우선 순위를 정하여 해결하는 방법을 도출한다. 반복적으로 과제를 만들고 해결하면서 만들어진 질문과 답변을 DB에 저.. 2023. 5. 16. [Brief Review] Twitter's Recommendation Algorithm 올해 3월, 트위터는 자신들의 추천 알고리즘 오픈 소스를 블로그와 깃을 통해 공개했다. 일단 블로그를 통해 공개된 전체적인 알고리즘을 리뷰하고 이후에 블로그의 여러 논문(Real Graph, SimClusters, ...)과 깃의 모델을 리뷰해보고자 한다. 트위터의 추천 알고리즘은 검색, 탐색, 광고 등 여러 부분에서 사용되지만 이번에 리뷰할 블로그에서는 For You 피드의 추천에 대해서 다룬다. 트위터에는 매일 5억 개의 트윗(트위터의 게시물)이 게시되고 이 중 몇 개만이 유저의 For You 타임라인에 게시된다. 그럼 어떻게 방대한 게시물 중 몇 개만을 샘플링하여 추천하는지 알아보자. How do we choose Tweets? 트위처 추천의 기반은 Model과 Feature이다. Feature는 .. 2023. 5. 9. [Brief Review] Are Neural Rankers still Outperformed by Gradient Boosted Decision Trees? Zhen Qin, Le Yan, Honglei Zhuang, Yi Tay, Rama Kumar Pasumarthi, Xuanhui Wang, Michael Bendersky, and Marc Najork. Are Neural Rankers still Outperfromed by Gradient Boosted Decistion Trees? In ICLR 2021 Spotlight Abstract 과거부터 최근까지의 연구에서 LTR(Learning To Rank) 문제에서 Neural Model은 GBDT(Gradient Boosted Decision Tree)보다 성능이 좋지 못했다. 해당 논문은 왜 Neural Model이 GBDT보다 LTR에서 성능이 좋지 않은지, Neural Model의 성능을 향상.. 2023. 4. 24. [PRML] 1.4. The Curse of Dimensionality 앞에서 살펴본 곡선 피팅 문제에서는 입력 변수가 하나였지만, 실제 입력 변수의 종류는 매우 다양하다. 이렇게 고차원 입력 변수를 다루는 것은 패턴 인식에서 중요한 고려 사항이다. 해당 문제를 살펴보기 위해 위 데이터를 예시로 들었다. 위 데이터로 하고자 하는 것은 \(x_{6}\)과 \(x_{7}\)이 있을 때, 해당 데이터가 무슨 Label을 가지는지 분류하는 것이다. Label의 종류는 색으로 나타나있다. 위 그림에서 \(\times\) 표시의 데이터가 새로 들어왔을 때, 해당 데이터를 무슨 Label로 분류할 수 있을지 생각해보자. \(\times\) 주위에 빨간색과 초록색이 있고 파란색을 멀리 떨어져있으므로 빨간색 혹은 초록색일 것이다. 이런 방식으로 새로운 데이터를 분류하기 위한 가장 단순한 접.. 2023. 1. 4. 이전 1 2 3 4 5 다음