UXRresearch

Game UX - 기대, 행위, 조정

BaekNohing 2022. 9. 16. 00:01

a cute cat snail

기대 행위 조정 요약
GameUX는 Jesper Juul이 이야기한 게임의 6항목 중에서 Player Effort를 중심으로 전개된다. 
플레이어는 게임 행위를 할 때 기대와 조정을 통해 행위 효용의 극대를 꾀한다.

 

게임 행위

Jesper Juul은 2003년에 있었던 "The Game, the Player, the World: Looking for a Heart of Gameness"[각주:1]에서 게임을 이루는 주 요소를 다음과 같은 여섯가지 항목으로 정의했는데, 여기서 나는 사용자 경험 분석을 위해 주로 4. Player Effort와 5.Player attached to outcome을 중심으로 GameUX를 살펴보고자 한다. (123은 게임의 영역, 6은 게임 외부의 영역이기 때문이다. 유저의 존재는 4와 5에 있다.)

Jesper Juul이 제시한 게임 다이어그램

4. Player effort에서 게임은 플레이어가 effort할 수 있는 대상이라고 정의된다. 즉 2와 3번에서 정의된 outcome을 위해 플레이어는 다양한 시도를 수행하며, 게임은 이를 통해 플레이어에게 가치를 전달한다(혹은 플레이어가 스스로 정한 가치를 느낀다). 즉 게임은 플레이어로 하여금 만족감이나 성취감을 느끼기 위해 다양한 노력을 시도하도록 만든다. 

Jesper Juul의 해당 강연을 정리한 논문에서는 이 Player Efforts가 비교적 짧게 정의되어 있기때문에, 내가 이해한 것을 토대로 첨언을 조금 하자면. 이 player effort에는 소울라이크와 같이 어려운 난이도의 게임이나, 리듬게임류의 스테이지를 파훼하기 위해 반복적으로 연습하는(=노력하는) 행위들이 포함되어 있으며. 나아가 트레이딩 카드게임이나 로그라이크 같은 장르의 게임에서 승리를 위해 신중하게 덱을 짜고 내는 카드를 결정하는 행위들, 또는 실시간 시뮬레이션이나 1인칭 슈팅게임 과 같은 장르에서 포지션이나 스킬을 연습하는 등 우리가 게임을 함에 있어 자연스럽게 수행하는 일련의 모든 행위들이 담겨져있다고 할 수 있다.[각주:2]

그리고 이 게임행위들은 실제로 행위가 이뤄지는 그 현장의 순간에서, 단기적으로 게임의 더 나은 수행을 목적으로 한다는 점에서 공통점을 가진다. 다시 말해, 점프 버튼을 누르는 그 순간 플레이어는 가급적이면 한번에 굼바를 피해 그 다음 점프로 이어지는 조금 더 나은 자리로 올라서고 싶어한다.

흥미로운 지점은 점프버튼을 눌러 땅에서 캐릭터를 발판으로 옮기는 존재가 플레이어만 있는 게 아니라는 점이다. 또다른 존재의 이름은 인공지능으로 인공지능 또한 플레이어와 유사하게 버튼을 눌러 게임 캐릭터를 점프시킨다. 이 때 AI[각주:3]가 만들어내는 점프와 플레이어가 만들어내는 게임행위-점프 사이에는 어떤 차이가 있는가?  

 

기대, 행위, 조정

플레이어와 AI 모두 상황에 맞춰 행동을 한다는 표면적인 부분은 서로 동일하지만, AI는 조건에 맞춰 최선의 선택을 하는 반면, 플레이어는 최대의 결과를 만들려고 한다는 점에서 차이가 있다. [각주:4] 가령 하단과 같은 상황을 생각해보자.

예시 - AI와 플레이어의 차이

첨부된 이미지를 간단하게 설명하면, 로드오브히어로즈의 시험의 전당으로, 배치된 5기 중에서 1기만 남아있는 상태이다. 이 때 현재 행동할 수 있는 캐릭터 (암)크롬은 1. 기본 공격으로 단일 대상을 약하게 타격하거나, 2. 특수 공격으로 소울을 소모하여 전체 적을 강하게 타격하는 두가지 행위를 할 수 있는 상태다. 

이 때 플레이어는 기본공격을 사용해 대상을 처리하려고 할 것이며
AI는 즉시 소울을 소모해 강한 타격을 가한다. 

 

기대

AI가 그러한 결정을 내린 이유는, "현재 사용할 수 있는 선택지를 검토하고, 가장 강력한 옵션을 가장 강하게 사용할 수 있는 대상으로 사용한다."는 규칙에 의해 행동하기 때문이다. 그렇기 때문에 그런 조건에서의 최선인 특수 공격을 선택해 적을 공격하는 것이다. 

반면 약한 타격을 선택한 플레이어는, 소울 소모( - )를 피하기 위함이기도 했지만, 다음 스테이지에서도 5기의 적이 배치됨을 알고 있기 때문에, 그 때 강한 타격( + )을 활용하여 5배의 효용을 얻기 위해 특수 공격을 보존하는 선택을 한다. 즉 플레이어는 지금 당장 최선이 아닐지라도, 효용의 총량을 최대로 만들기 위한 선택을 내리며 (방금 플레이어가 "다음 스테이지에도 5기의 적이 배치될 것이라 생각했던 것 처럼) 이를 통해 플레이어의 게임 행위에는 기대가 반드시 선행된다는 것을 알 수 있다.

 

조정

<!-- 보충사례를 좀 더 추가할 것 -->

뿐만 아니라, 가령 약한 타격이 적을 한번에 정리하지 못하여 턴이 질질 끌리는 등 본인이 기대하지 않은 손해가 발생하거나, 또는 약한 타격을 사용했더니 다음 스테이지가 스킵되면서 게임이 클리어되는 등 기대를 뛰어넘는 이익이 발생한다면, 플레이어는 이것을 바탕으로 자신의 기대 모델을 조정한다. 다시 말해 다음번에 동일한 상황에서 기대할 때는 앞서 발생한 기대 이상의 결과물들 또한 기대 모델에 포함시켜서 손익을 계산한다는 것이며. 이러한 기대 모델의 유동적인 성질 또한 기대와 같은 플레이어와 AI와의 주요한 차이점이라고 할 수 있다. 

출처 : https://www.youtube.com/watch?v=5kLZVR1RwJg

다른 사례를 생각해보자, 플랫포머 게임에서 (<!-- 플랫포머 게임에서 유저가 점프를 하기 전 수립한 모델과 시행에 대한 간단한 분석 -->)

생각해볼만한 부분은, 유저의 기대 모델에는 완전하지 않은 순간이 있다는 것이다. 그리고 어느 순간 완전한 요소를 갖춘다 하더라도, 망각하게 된다. 즉 전체 유저 풀을 생각해 봤을 때 게임을 수행하는 유저의 기대 모델은 불완전하다. 다시말해 유저의 "기대 모델에는" 존재하는 함정이, 나타나는 적이 아직 그들의 모델에는 반영되어있지 않으며, 이로 인하여 필연적으로 잘못된 선택 (가시함정이 있는 바닥을 향해 점프하는)을 내리게 된다.

그리고 수행의 실패(=기대한 것에 못미치는 결과를 얻음)을 통해 자신의 모델을 수정하며, 다음 시행에서 좀 더 나은 선택을 내리고자 한다. 여기서 기계적 수행과 게임 행위를 구분할 수 있는데. 기계적 수행의 주체는 자신을 실패하게 만든 행위를 다시 한번 더 반복하는데 주저함이 없다.

<!-- 좀 더  명쾌한 정리를 생각해볼 것 -->

정리하자면, 플레이어는 기대와 조정을 바탕으로 게임행위를 하며 이를 통해 게임의 outcome을 취하고자 한다고 정의내릴 수 있다. 

 


각주 

  1. 1. 해당 논문이 게시된 웹페이지 링크 [본문으로]
  2. 2. 더 적절하거나, 아니면 좀 더 넓게 통용되는 단어를 찾기 전까지 나는 이것을 게임 행위 라고 부르고자 한다. [본문으로]
  3. 3. 인공신경망 등을 활용한  AI의 경우엔 (요새는 사람의 뇌세포로도!! AI가 만들어진다고 한다) 몇 번 써보기만 했을 뿐, 정확한 작동원리를 알지 못하기 때문에 여기서는 사람이 직접 알고리즘으로 한땀한땀 만들어낸 인공지능들만을 다룬다. [본문으로]
  4. 4.물론 게임 중에서는 "최선 = 최대"가 되는 게임들도 있기 때문에(ex. 리듬게임류) 칼로 나누듯 딱 잘라 떨어뜨릴 수 없다는 것을 인정한다. [본문으로]