본 논문에서는 메타버스 환경 내에서의 사용자 지속 인증 문제에 대해 다룬다. 최근 메타버스는 개인의 상호작용, 엔터테인먼트, 교육 및 비즈니스 분야에서 중요한 역할을 하고 있으며, 특히 사용자 신원 확인과 관련된 취약점이 주요한 문제로 인식되고 있다. 본 연구는 자세 추정 모델로 메타버스 환경의 캐릭터 움직임을 추출하고 분석하여 사용자의 신원을 확인하는 새로운 방법을 제안한다. 이 방법은 영상 데이터만을 이용하여 사용자를 인증하기 때문에 제한적인 환경에서도 활용할 수 있으며, 다양한 실험을 통해 캐릭터의 움직임이 사용자 식별에 어떻게 기여할 수 있는지를 분석한다. 또한, 이 접근 방식의 다른 디지털 플랫폼으로의 확장 가능성을 탐구한다. 이러한 연구는 메타버스 환경 내에서의 보안 강화와 사용자 신원 확인 방식의 혁신에 중요한 기여할 것으로 기대된다.
본 논문에서는 메타버스 환경 내에서의 사용자 지속 인증 문제에 대해 다룬다. 최근 메타버스는 개인의 상호작용, 엔터테인먼트, 교육 및 비즈니스 분야에서 중요한 역할을 하고 있으며, 특히 사용자 신원 확인과 관련된 취약점이 주요한 문제로 인식되고 있다. 본 연구는 자세 추정 모델로 메타버스 환경의 캐릭터 움직임을 추출하고 분석하여 사용자의 신원을 확인하는 새로운 방법을 제안한다. 이 방법은 영상 데이터만을 이용하여 사용자를 인증하기 때문에 제한적인 환경에서도 활용할 수 있으며, 다양한 실험을 통해 캐릭터의 움직임이 사용자 식별에 어떻게 기여할 수 있는지를 분석한다. 또한, 이 접근 방식의 다른 디지털 플랫폼으로의 확장 가능성을 탐구한다. 이러한 연구는 메타버스 환경 내에서의 보안 강화와 사용자 신원 확인 방식의 혁신에 중요한 기여할 것으로 기대된다.
This paper addresses the issue of continuous user authentication within the metaverse environment. Recently, the metaverse plays a vital role in personal interaction, entertainment, education, and business, bringing forth significant security concerns. Particularly, vulnerabilities related to user i...
This paper addresses the issue of continuous user authentication within the metaverse environment. Recently, the metaverse plays a vital role in personal interaction, entertainment, education, and business, bringing forth significant security concerns. Particularly, vulnerabilities related to user identity verification have emerged as a major issue. This research proposes a novel method to verify identities by analyzing users' character movements in the metaverse through a pose estimation model. This method uses only video data for authentication, allowing flexibility in limited environments, and investigates how character movements contribute to user identification through various experiments. Furthermore, it explores the potential for extending this approach to other digital platforms. This research is expected to significantly contribute to enhancing security and innovating user identity verification methods in the metaverse environment.
This paper addresses the issue of continuous user authentication within the metaverse environment. Recently, the metaverse plays a vital role in personal interaction, entertainment, education, and business, bringing forth significant security concerns. Particularly, vulnerabilities related to user identity verification have emerged as a major issue. This research proposes a novel method to verify identities by analyzing users' character movements in the metaverse through a pose estimation model. This method uses only video data for authentication, allowing flexibility in limited environments, and investigates how character movements contribute to user identification through various experiments. Furthermore, it explores the potential for extending this approach to other digital platforms. This research is expected to significantly contribute to enhancing security and innovating user identity verification methods in the metaverse environment.
기존 지속인증은 추가적 장비가 필요하거나 비용이 많이 발생하는 문제가 있기 때문에 메타버스 환경에서 활용하기 어렵다. 따라서 본 논문에서는 플레이 동영상만으로 사용자의 행동을 분석해 사용자를 인증하였다. Beat Saber 플레이 동영상을 직접 수집한 뒤 자세 추정 모델로 피처를 추출하였다.
또한 터치 스크린이나 키보드를 사용하지 않고 시선을 파악하기 위해서는 고가의 장비가 필요하기 때문에 물리적 환경 기반 행동 인증을 사용하기 어렵다. 따라서 본 연구에서는 걸음걸이 기반 지속 인증을 확장하여 메타버스 환경에 드러나는 사용자의 자세를 추정하여 시간에 따른 행동 변화를 모델링함으로써 사용자를 식별하고 인증하는 방법을 탐구한다.
더욱이, 최근에는 생성형 AI의 발달[3]로 특정 인물의 얼굴이나 목소리를 모방[4]하는 것이 가능해져, 계정 보안이 더욱 중요해졌다. 따라서 현재 접속 중인 사용자가 실제 계정의 주인이 맞는지 확인하는 기술은 메타버스 환경에서 안전을 보장하기 위해 필수적이며 이를 위해, 본 연구에서는 지속 인증을 사용한 새로운 접근 방식을 제시하고자 한다.
본 논문은 최근 기술 발전의 전면에 등장한 메타버스 환경 내의 보안 문제를 깊이 있게 다룬다. 메타버스는 현실 세계를 모사하거나 상상력을 기반으로 한 가상 세계를 제공함으로써, 개인의 상호작용, 엔터테인먼트, 교육 및 비즈니스 분야에서 중요한 역할을 하고 있다[1].
본 연구는 특정 VR 게임인 'Beat Saber'에서 획득한 동영상 데이터에 기반하여 사용자 인증 방법을 개발하고 검증하였다
이러한 지속 인증의 개념을 바탕으로, Gattulli 등의 연구[11]는 터치스크린 상호작용을 통한 인증 방법에 초점을 맞췄다. 이 연구에 따르면, 스마트폰의 기본 탐색 작업에서 나오는 촉각 데이터를 분석하여 사용자를 인증하는 시스템을 개발하였다. 이 시스템은 하나의 클래스를 구분하는 Support Vector Machine(SVM) 모델을 학습시켜 98.
이를 위해 본 연구는 다양한 실험을 통해 캐릭터의 움직임이 사용자 식별에 신뢰성 있는 인증 요소가 될 수 있는지를 분석한다. 또한, 이러한 접근 방식이 다른 플랫폼에도 적용될 수 있는지를 검토하여, 기술의 범용성과 확장성에 대해 논의한다.
제안 방법
따라서 본 논문에서는 플레이 동영상만으로 사용자의 행동을 분석해 사용자를 인증하였다. Beat Saber 플레이 동영상을 직접 수집한 뒤 자세 추정 모델로 피처를 추출하였다. 추출된 피처를 트랜스포머 모델을 학습시켜 메타버스 환경에서 물리적 센서 데이터가 아닌 아바타의 행위 정보만으로 사용자를 식별하고 인증할 수 있음을 보였다.
x와 y값은 평면상의 관절의 위치를 나타내는 좌푯값이고 confidence 점수는 자세 추정 모델이 해당 관절의 위치를 예측한 정확도, 즉 실제로 관절이 그 위치에 존재할 확률을 수치화한 것으로 0과 1사이의 값을 가진다. Confidence 점수를 피처에 포함할 경우 손이 등 뒤로 가거나 무릎이 손에 가려지는 등 신체부위가 가려져 관절의 좌표가 부정확하게 측정되는 경우를 모델이 고려하여 학습할 수 있기 때문에 성능이 향상될 것이라고 예상하고 confidence 점수의 포함 여부를 달리하여 실험을 수행했다. 일반적인 성능을 측정하기 위해 두 개의 window size로 실험했으며 Table 1.
이로 인해 더 정확한 키포인트 히트맵 예측이 가능하며 HRNet은 해상도 감소 과정에서 정보 손실을 최소화하면서 다양한 해상도의 특징을 효과적으로 결합한다. HRNet의변형으로는 Lite-HRNet이 있으며, 채널 간 및 해상도 간 정보 교환을 위해 조건부 채널 가중치 블록을 설계했다.
이를 위해 본 연구는 다양한 실험을 통해 캐릭터의 움직임이 사용자 식별에 신뢰성 있는 인증 요소가 될 수 있는지를 분석한다. 또한, 이러한 접근 방식이 다른 플랫폼에도 적용될 수 있는지를 검토하여, 기술의 범용성과 확장성에 대해 논의한다. 이러한 연구는 메타버스 환경 내에서의 보안을 강화하고, 사용자 신원 확인 방식을 혁신하는 데 중요한 기여를 할 것으로 기대된다.
본 연구에서 제안한 인증 시스템은 VR 게임, 특히 'Beat Saber'에서 VR 기기를 통해 사용자의 행위를 반영한 아바타의 동작만을 분석함으로써 사용자를 인증한다
본 연구에서는 ‘Beat Saber’라는 게임을 이용하여 사용자의 행동 데이터를 수집하고 이를 분석하는 방법을 개발하였다
사용자 인증의 신뢰성과 효율성을 높이기 위해 사용자의 행동이 담긴 캐릭터의 움직임을 분석해 인증하는 새로운 접근법을 제시한다. 기존 지속인증은 추가적 장비가 필요하거나 비용이 많이 발생하는 문제가 있기 때문에 메타버스 환경에서 활용하기 어렵다.
마지막으로, 본 연구는 비용 절감의 잠재력을 가진다. 생체 인증 시스템은 고가의 센서 및 복잡한 설치 과정을 요구하는 반면, 본 논문에서 제안하는 방법은 추가적인 하드웨어 없이 VR 게임에서 얻은 데이터를 활용한다. 이는 특히 비용에 민감한 조직이나 개인 사용자에게 매력적인 대안이 될 수 있으며, 인증 시스템의 구축 및 유지 관리 비용을 상당히 절감할 수 있을 것이다.
보행 기반 인증 연구인 BRITTANY[12]는 CNN을 사용하여 사람들의 걸음걸이를 분석함으로써 개인을 식별한다. 이 과정에서 LIDAR 데이터를 개인의 보행을 나타내는 이미지로 변환한 뒤 CNN이 이를 처리하여 그들의 독특한 걸음걸이 패턴을 기반으로 개인을인증한다. 이 방법은 사람의 행동을 신뢰할 수 있는 생체 인증 수단으로 사용할 수 있는 잠재력을 강조한다.
따라서 이 문제를 해결하기 위해 피처를 추출한 후 정규화를 수행한다. 인증 단위의 첫 번째 프레임을 기준으로 정규화하는 시간 정규화, 각 프레임에 나타나는 자세의 중심점을 기준으로 정규화하는 관절 정규화, 앞선 두 방법으로 도출한 값을 이어붙이는 concat 정규화로 세 가지의 정규화 방법을 실험하여 선택한다. Fig.
제안 방법은 가상현실(VR) 게임 'Beat Saber'의 플레이 동영상을 분석하여 사용자의 무의식적인 자세 변화를 추출하고, 이를 통해 신원을 확인하는 방식을 포함한다
제안 방법이 사용하는 인증 기준의 확장 가능성과 전이성을 파악하기 위해 학습과 검증에 같은 노래를 사용하는 것이 아닌 다른 노래를 사용해 실험하였다. Table 2.
이는 전통적인 단일 시점 인증 방식의 한계를 극복할 수 있으며 특히 메타버스와 같은 디지털 환경에서 중요한 역할을 한다. 지속 인증은 사용자의 행동 양식, 상호작용 방식, 신체적 특성 등을 실시간으로 분석하여 인증 프로세스를 수행한다. 이러한 지속 인증의 개념을 바탕으로, Gattulli 등의 연구[11]는 터치스크린 상호작용을 통한 인증 방법에 초점을 맞췄다.
의 인증기를 사용한다. 특정한 사용자의 데이터만으로원본과 유사한 출력을 만드는 방식으로 학습시킨 뒤 인증 과정에서 임의의 데이터가 들어왔을 때 입력과 출력의 차이가 임계값보다 적을 때 본인이라고 간주하고 그렇지 않을 때 타인이라고 판단하여 사용자 인증 Area Under the Curve(AUC)값을 계산하였다. AUC는 ROC 곡선의 아랫 부분 면적을 의미하며 ROC 곡선은 임계값에 따른 False Positive Rate(FPR)과 True Positive Rate(TPR)의 변화를 기준으로 그려지기 때문에 임계값에 따른 모델의 성능을 나타내고 면적이 1에 가까울수록 좋은 성능을 의미한다.
대상 데이터
따라서 'Beat Saber'[19]에서 아바타의 행동적 특징을 뽑아내기 위한 환경을 직접 구축하고 데이터를 수집하였다
연구를 위해 진행된 동영상 수집 과정에서는 'Beat Saber'의 기본 설정인 1인칭 시점을 Fig
오른쪽에 보이는 것처럼 Camera2 모드를 활용하여 3인칭 시점으로 변경하였으며, Custom Avatar 모드를 통해 캐릭터의 형태를 생성하여 사용자의 움직임을 명확히 포착하였다. 총 6명의 참가자로부터 각각 세 개의 노래에 대해 3회씩 플레이하는 영상을 수집하였으며, 모든 영상은 30fps의 프레임 속도로 일관되게 녹화하였고 평균 129.94초 최소 86.52초 최대 185.41초의 길이를 가지고 있다. 이렇게 수집된 동영상 데이터는 메타버스 환경에서 사용자의 행동 패턴 분석에 있어 핵심적인 기초 자료로 활용될 것이다.
이론/모형
이 게임은 사용자가 가상 공간에서 음악에 맞춰 블록을 자르는 활동을 하는 VR 게임으로, 이를 통해 얻은 동영상 데이터는 사용자의 움직임과 행동 패턴을 파악하는 데 사용된다. OpenPose[15]라는 오픈소스 자세 추정 모델을 사용하여 각 프레임에서 캐릭터의 자세 정보를 추출하며 (T, 25, 3) 형태의 출력을 제공한다. 여기서 T는 동영상의 프레임 수를 나타내며 총 25개의 관절에 대한 x 좌표, y 좌표, confidence 점수가 도출된다.
메타버스 환경 내 사용자 인증을 위해 오토인코더(auto-encoder) 구조를 채택하였다. 오토인코더는 특정 사용자의 행동 패턴을 학습하고, 이를 기반으로 본인 여부를 판단하는 데 적합한 구조를 가진다.
트랜스포머 모델[16]은 자연어 처리(NLP) 분야에서 혁신적인 심층 학습 아키텍처로, 주로 언어 번역, 텍스트 분류 및 텍스트 생성과 같은 작업에 사용된다. 이 모델은 기존 순환 신경망(RNN)이나 합성곱 신경망(CNN)과 달리 어텐션 메커니즘만[17]을 사용하여 입력 시퀀스 내의 요소 간의 의존성을 모델링한다. 언어 번역, 텍스트 분류 및 텍스트 생성과 같은 다양한 작업에서 최신 결과를 달성하는 데 사용되었다.
성능/효과
제안 방법이 사용하는 인증 기준의 확장 가능성과 전이성을 파악하기 위해 학습과 검증에 같은 노래를 사용하는 것이 아닌 다른 노래를 사용해 실험하였다. Table 2.에 보이는 바와 같이 1번 노래를 이용해 학습한 뒤 3번 노래로 검증한 결과 31.10%의 낮은 식별 정확도를 보였지만 1번과 2번 노래를 같이 학습한 뒤 3번 노래로 검증한 결과 두 배 이상 향상된 66.92%의 식별 정확도를 달성했다. 이를 통해 만약 다양한 상황에서 수집한 영상으로 학습한다면 모델이 사용자의 행동 양식을 풍부하게 인지할 수 있어 범용적인 사용자 인증 모델을 구축할 수 있을 것이다.
이는 동일한 인증 과정을 수행함에 있어 필요한 네트워크 트래픽이 세 배 이상 감소함을 의미한다. 따라서, 본 논문의 방법은 피지컬 환경에서의 행동 기반 지속 인증보다 네트워크 자원을 훨씬 적게 소모하며, 이는 네트워크 트래픽의 부담을 줄이고 전체 시스템의 효율성을 증가시킬 것이다.
이는 오토인코더가 입력 데이터의 중요한 특징을 효율적으로 학습하고 추출할 수 있기 때문이다. 또한, 오토인코더는 레이블이 필요 없는 비지도 학습 모델로, 이를 통해 사용자의 정상적인 행동 데이터만으로도 효과적인 인증 모델을 구축할 수 있다. 구조는 Fig.
실험 결과, confidence 점수가 있을 때 성능이 향상되는 것을 확인할 수 있었다. 이것은 신체 부위가 가려진 상황에서 confidence 점수가 낮게 측정되면 분류 모델이 이것을 고려하여 사용자를 분류할 수 있기 때문이다.
이 연구에 따르면, 스마트폰의 기본 탐색 작업에서 나오는 촉각 데이터를 분석하여 사용자를 인증하는 시스템을 개발하였다. 이 시스템은 하나의 클래스를 구분하는 Support Vector Machine(SVM) 모델을 학습시켜 98.9%의 정확도와 99.4%의 F1 점수를 달성했다. 이러한 결과는 터치스크린 상호작용을 이용한 사용자 인증이 효과적일 수 있음을 보여주며 메타버스 환경에서의 사용자의 행동 분석을 통한 인증 방식의 구현 가능성을 제시한다.
이 논문의 제안하는 지속 인증 방법은 메타버스 보안 강화에 중요한 기여를 할 것으로 기대된다. 첫째, 메타버스 계정 탈취로 인해 발생할 수 있는 다양한 위협을 해결하는 효과적인 방법을 제시한다. 계정 탈취는 사용자의 개인 정보 유출, 금융적 손실, 그리고 사생활 침해 등 다양한 위험을 수반[2,8,10]한다.
Beat Saber 플레이 동영상을 직접 수집한 뒤 자세 추정 모델로 피처를 추출하였다. 추출된 피처를 트랜스포머 모델을 학습시켜 메타버스 환경에서 물리적 센서 데이터가 아닌 아바타의 행위 정보만으로 사용자를 식별하고 인증할 수 있음을 보였다.
후속연구
더욱 다양한 데이터와 시나리오에 대한 실험이 필요하며, 이는 메타버스의 다양한 환경과 상황에서도 효과적으로 작동할 수 있는 인증 시스템의 개발로 이어질 수 있다. 다양한 가상 환경에서의 사용자 행동과 상호작용의 복잡성을 고려할 때, 본 연구의 방법론이 다른 VR 게임이나 메타버스 활동에 쉽게 적용될 수 있을지에 대한 추가적인 연구와 실험이 요구된다.
따라서, 본 연구의 방법론이 다양한 유형의 활동, 상황, 그리고 사용자행동패턴을 포괄적으로 인증할 수 있을지에 대한 질문이 남는다. 더욱 다양한 데이터와 시나리오에 대한 실험이 필요하며, 이는 메타버스의 다양한 환경과 상황에서도 효과적으로 작동할 수 있는 인증 시스템의 개발로 이어질 수 있다. 다양한 가상 환경에서의 사용자 행동과 상호작용의 복잡성을 고려할 때, 본 연구의 방법론이 다른 VR 게임이나 메타버스 활동에 쉽게 적용될 수 있을지에 대한 추가적인 연구와 실험이 요구된다.
둘째, 본 연구는 네트워크 사용량의 감소를 통한 효율성 향상을 기대할 수 있다. Vivek Nair 외 6명의 연구[20]에서는 센서 정보를 이용한 사용자 식별에 232개의 피처를 사용했다는 점을 고려할 때, 본 논문의 제안 방법이 사용하는 75개의 피처는 이에 비해 훨씬 적은 양이다.
계정 탈취는 사용자의 개인 정보 유출, 금융적 손실, 그리고 사생활 침해 등 다양한 위험을 수반[2,8,10]한다. 본 논문에서 제안하는 지속 인증 방식은 이러한 위험을 상당 부분 완화할 수 있으며, 메타버스 사용자의 안전을 보장하는 데 중요한 역할을 할 것이다.
연구에 사용된 데이터의 양과 다양성에 관한 한계는 본 연구의 결과가 실제 메타버스환경의 복잡성과 다양성을 전면적으로 대변하고 있다고 보기 어렵게 만든다. 본 연구는 특정 VR 게임인 'Beat Saber'에서 획득한 동영상 데이터에 기반하여 사용자 인증 방법을 개발하고 검증하였다.
이 논문의 제안하는 지속 인증 방법은 메타버스 보안 강화에 중요한 기여를 할 것으로 기대된다. 첫째, 메타버스 계정 탈취로 인해 발생할 수 있는 다양한 위협을 해결하는 효과적인 방법을 제시한다.
4%의 F1 점수를 달성했다. 이러한 결과는 터치스크린 상호작용을 이용한 사용자 인증이 효과적일 수 있음을 보여주며 메타버스 환경에서의 사용자의 행동 분석을 통한 인증 방식의 구현 가능성을 제시한다.
또한, 이러한 접근 방식이 다른 플랫폼에도 적용될 수 있는지를 검토하여, 기술의 범용성과 확장성에 대해 논의한다. 이러한 연구는 메타버스 환경 내에서의 보안을 강화하고, 사용자 신원 확인 방식을 혁신하는 데 중요한 기여를 할 것으로 기대된다.
41초의 길이를 가지고 있다. 이렇게 수집된 동영상 데이터는 메타버스 환경에서 사용자의 행동 패턴 분석에 있어 핵심적인 기초 자료로 활용될 것이다.
92%의 식별 정확도를 달성했다. 이를 통해 만약 다양한 상황에서 수집한 영상으로 학습한다면 모델이 사용자의 행동 양식을 풍부하게 인지할 수 있어 범용적인 사용자 인증 모델을 구축할 수 있을 것이다.
향후 연구 계획으로는, 현재의 연구 결과를 바탕으로 추가적인 데이터를 수집하고 다양한 메타버스 환경과 시나리오에서의 적용 가능성을 탐구할 예정이다. 특히, 사용자의 로그 데이터를 활용하여 인증 과정을 더욱 정교화하고, 다양한 사용자 행위 패턴을 포괄할 수 있는 모델을 개발함으로써 메타버스 환경에서의 보안과 개인정보 보호를 향상시킬 것이다.
향후 연구 계획으로는, 현재의 연구 결과를 바탕으로 추가적인 데이터를 수집하고 다양한 메타버스 환경과 시나리오에서의 적용 가능성을 탐구할 예정이다. 특히, 사용자의 로그 데이터를 활용하여 인증 과정을 더욱 정교화하고, 다양한 사용자 행위 패턴을 포괄할 수 있는 모델을 개발함으로써 메타버스 환경에서의 보안과 개인정보 보호를 향상시킬 것이다.
참고문헌 (22)
Ning, Huansheng, et al, "A Survey on?the Metaverse: The State-of-the-Art,?Technologies, Applications, and?Challenges.", IEEE Internet of Things?Journal, vol.10, no. 16, pp.?14671-14688, Aug. 2023.
Huang, et al, "Security and privacy in?metaverse: A comprehensive survey.",?Big Data Mining and Analytics, vol.?6, no. 2, pp. 234-247, Jun. 2023.
Bandi, Ajay, et al, "The power of?generative ai: A review of?requirements, models, input-output?formats, evaluation metrics, and?challenges.", Future Internet, vol. 15,?no. 8, pp. 260, Aug. 2023.
Shoaib, Mohamed R., et al,?"Deepfakes, misinformation, and?disinformation in the era of frontier?ai, generative ai, and large ai?models.", International Conference on?Computer and Applications, Jun.?2023.
Ryu, Riseul, et al, "A comprehensive?survey of context-aware continuous?implicit authentication in online?learning environments.", IEEE Access,?vol. 11, pp. 24561-24573, Mar. 2023.
Rodriguez, et al, "PACE: Providing?Authentication through Computational?Gait Evaluation with Deep learning.",?Proceedings of the Twenty-fourth?International Symposium on Theory,?Algorithmic Foundations, and Protocol?Design for Mobile Networks and?Mobile Computing, pp.442-446, Oct.?2023.
Odya, Piotr, et al, "User?authentication by eye movement?features employing SVM and XGBoost?classifiers.", vol. 11, pp. 93341-93353,?IEEE Access, Aug. 2023.
Kang, Giluk, et al, "Security and?Privacy Requirements for the?Metaverse: A Metaverse Applications?Perspective.", IEEE Communications?Magazine, vol. 62, no. 1, pp. 148-154,?Jan. 2023.
X. Chen and K. Michael, "Privacy?Issues and Solutions in Social?Network Sites", IEEE Technology and?Society Magazine, vol. 31, no. 4, pp.?43-53, Dec. 2012.
Tanya Basu, "The metaverse has a?groping problem already",?https://www.technologyreview.com/2021/12/16/1042516/the-metaverse-has-a-groping-problem/, Dec. 2021
Gattulli, V., et al, "Touch events and?human activities for continuous?authentication via smartphone",?Scientific Reports, vol. 13, no. 1, pp.?10515, Jun. 2023.
Alvarez-Aparicio, et al, "Biometric?recognition through gait analysis". Sci?Reports, vol. 12, no.1, pp.14530, Aug.?2022.
Wei, Shih-En, et al, "Convolutional?pose machines.", Proceedings of the?IEEE conference on Computer Vision?and Pattern Recognition, Jun. 2016.
Wang, Jingdong, et al, "Deep?high-resolution representation?learning for visual recognition.", IEEE?transactions on pattern analysis and?machine intelligence, vol. 43, no. 10,?pp. 3349-3364, Oct. 2020.
Cao, Zhe, et al, "Realtime?multi-person 2d pose estimation using?part affinity fields.", Proceedings of?the IEEE conference on computer?vision and pattern recognition, Jul.?2017.
Vaswani, Ashish, et al, "Attention is?all you need.", Advances in neural?information processing systems 30,?Dec. 2017.
Bahdanau, Dzmitry, et al, "Neural?machine translation by jointly?learning to align and translate.", 3rd?International Conference on Learning?Representations, May. 2015.
Devlin, Jacob, et al. "BERT:?Pre-training of Deep Bidirectional?Transformers for Language?Understanding." Proceedings of the?2019 Conference of the North?American Chapter of the Association?for Computational Linguistics: Human?Language Technologies, vol. 1 (Long?and Short Papers), pp. 4171-4186,?Jun. 2019.
Beat Games, "Beat Saber",?https://beatsaber.com/, Mar. 2024.
Nair, Vivek, et al, "Unique?identification of 50,000+ virtual?reality users from head & hand?motion data.", 32nd USENIX Security?Symposium (USENIX Security 23),?Aug. 2023.
Leyfer K, Spivak, "A Continuous user?authentication by the classification?method based on the dynamic?touchscreen biometrics." In: Proc of?the 24th conf of open innov Assoc?(FRUCT) IEEE, Apr. 2019.
Lee H, et al, "Understanding?keystroke dynamics for smartphone?users authentication and keystroke?dynamics on smartphones built-in?motion sensors." Security and?Communication Networks, Mar. 2018.?
※ AI-Helper는 부적절한 답변을 할 수 있습니다.