October 7, 2024
행사명 : 마티니 Growth팀 채용설명회
장소: 서울 서초구 서초대로38길 12 마제스타시티 타워2 12F
일시: 2024년 10월 22일 화요일 오후 7시 ~ 9시
2024년 10월 22일 목요일 오후 7시 Marketing Intelligence People, 마티니와 마티니 Growth팀을 여러분들께 소개합니다.
Growth팀에서는 그로스 매니저를 채용 중에 있으며, 진행했던 고객사 및 프로젝트 사례들을 기반으로 업무방식과 직무 및 채용 관련 설명을 드릴 예정입니다.
추천인 보상금도 지급하고 있으니 네트워킹하러 편히 들러주세요!
19:00 - 19:20 Martinee Marketing Intelligence 2024 | 이선규 Martinee CEO
19:20 - 19:40 About Martinee Growth Team | 이재철 Martinee Growth Lead
19:40 - 19:50 사전 QnA (현장질문포함)
19:50 - 21:00 Networking
*주차권 제공 가능하며 리셉션 데스크 문의바랍니다.
*네트워킹 시간에 참석자분들께 간단한 음식이 제공됩니다.
*문의사항은 mkt@martinee.io 로 문의바랍니다.
September 20, 2024
데이터마케팅이란 [데이터]를 활용하여 마케팅한다는 뜻으로 데이터드리븐마케팅(Data-driven Marketing)으로도 불릴 수 있습니다.
데이터마케팅과 데이터드리븐마케팅의 차이는 미미하나, 데이터마케팅은 데이터를 [활용] 하나 데이터 드리븐 마케팅은 데이터를 [기반]으로 하기에 후자에서 데이터의 중요성이 좀 더 강조된다고 볼 수 있습니다.
데이터마케팅을 위해서 필수 조건은 (당연하게도) 데이터 분석입니다. 결괏값을 측정하여 데이터를 잘 쌓아두고, 보유한 데이터를 가공하여 상황을 해석하고 문제나 개선점에 대한 인사이트를 도출하는 것이 기본적인 데이터 마케팅의 프로세스라고 할 수 있습니다.
그로스 조직(=그로스팀)은 기본적으로 데이터 드리븐 마케팅을 하기에, 프로세스가 같습니다.
데이터를 기반으로 가설을 세우고, 실험을 바탕으로 검증하고, 배움을 축적하는 과정을 빠르게 반복합니다. (*출처: 양승화 님의 그로스해킹)
마티니에서 진행한 컨설팅 프로젝트였던, 패션 커머스를 기준으로 데이터마케팅의 사례를 보겠습니다.
커머스 내에서도 여러 안건의 데이터 분석이 있는데요. 1. 에디토리얼(=콘텐츠), 2. 프로모션 간의 비교 (미드세일 vs 시즌오프세일), 3. 주요 대시보드 (KPI, AARRR) 4. 특정 프로모션 (블랙프라이데이) 등입니다.
블랙프라이데이 프로모션을 세부 사례로 앰플리튜드(Amplitude)를 활용했던 분석을 예시로 들어보겠습니다.
*앰플리튜드는 SaaS(Software as a Service: 클라우드 기반의 소프트웨어 제공 모델) 솔루션으로 웹/앱 서비스 내의 사용자 행동 분석을 할 수 있는 프로덕트 애널리틱스(Product Analytics)입니다.
왜 프로모션 데이터 분석을 해야 할까요? 그 배경부터 먼저 짚고 넘어갑시다.
다양한 형태로 스스로에게 질문을 해봅니다.
Q. 프로모션을 기획하고 운영한 후 가장 궁금한 것은?
Q. 프로모션을 운영한 이유는 무엇일까요?
여러 가설을 세워봅니다.
이렇게 물어보면, 보통은 '셋 다'라고 대답하는 경우가 많은데요. 충분히 이해는 하지만(^^...!) 우선순위는 정해야 합니다. 대개 우선순위는 [매출]이기에, 매출 관련 분석을 먼저 진행합니다.
매출의 기본적인 구성 요소를 먼저 파악합니다.
*건단가와 객단가
건단가와 객단가는 혼용되어 쓰이기도 하는데요. 주문[건]의 건, 고[객]의 [객]을 생각하시면 됩니다.
즉 어제 제가 배민에서 점심 주문 건으로 1.5만 원을 쓰고 저녁 주문 건으로 2.5만 원을 썼다면 일 기준 제 건단가는 [1.5만 원] / [2.5만 원] 두 건일 것이고 제 객단가는 [1.5만 원]+[2.5만 원]의 4만 원이 될 수도 있습니다.
*물론 건단가와 객단가는 내부적으로 정의하기 마련입니다! 일간 건단가를 평균으로 낼 수도 있으니까요.
이에 따라 앰플리튜드(Amplitude)에서 매출, 주문수/건단가, 구매자수/객단가로 그래프를 구성합니다. 우선 매출로 전체적인 추이를 보고 주문수/건단가, 구매자수/객단가를 개별로 쪼개보는 것이죠.
해당 프로모션에서는 객단가와 건단가가 유사한 추이를 보이기에 특이 사항이 없다고 판단되었지만, 가끔 특정 프로모션에서 객단가와 건단가의 차이가 크게 발생하는 경우도 있습니다. (리셀러의 등장?!)
이외 위 그래프에서 두 개의 선이 있는데요. 데이터를 볼 때의 꼭 필요한 [비교 기준]입니다. 비교 기준은 사용자 특성이 될 수도, 행동이 될 수도 있지만 [기간]을 가장 기본적으로 고려합니다.
*비교 기준: 기간(일간, 주간, 월간, 분기, 반기, 연간… 시즌성 고려!
블랙프라이데이 프로모션의 분석이라면 전년도 11월과 비교하는 것 vs 전월인 10월과 비교하는 것 - 어떤 것이 더 합리적일까요? 당연히 전년도일 것입니다.
전월 10월과 당월 11월의 할인율, 마케팅 수준 등이 다를 테니까요. 물론 전년 대비 회원수도 브랜드수도 많아졌고 등의 변동 요인들이 많아 YoY만 비교하는 것이 의미가 없다고 판단된다면 결국 전년도(YoY)/전월(MoM)/전주(WoW) 등 비교 대상들이 많아질 수 있습니다.
현대의 직장인이라면 대개 모든 업무의 결과를 [숫자]로 보긴 합니다. 그렇다면 그냥 숫자를 확인하는 것과 데이터 분석의 가장 큰 차이점은 무엇일까요?
예를 들어 2024년 7월 A 커머스의 구매 전환율 (메인 페이지 조회 > 결제 완료)이 10%라고 했을 때, 어떤 해석을 할 수 있을까요?
전월 대비 높아졌다/낮아졌다, 전년 대비 높아졌다/낮아졌다의 판단을 위해서는 전월 데이터, 전년도 데이터가 필요합니다.
전년, 전월, 전주의 데이터를 보며 추이를 확인했을 때 눈에 띄게 높거나/낮은, 혹은 변동이 생기는 시점을 찾아내어 그 배경이 무엇이었는지 파악하는 것이 필요합니다.
혹은 유사한 프로모션이 진행되었던 시기와 비교하여 구매전환율이나, 구매수, 유입수, 가입수 등의 주요 지표에서 차이가 있었는지를 파악해 보는 것도 좋습니다.
프로모션 vs 프로모션 간의 비교 외에도 uiux를 개선하거나 특정 기능을 배포했을 때 그 시점 이후의 변화가 있는지를 확인할 수 있습니다.
매출을 구매수와 건단가, 구매자수와 객단가로 나눠 전반적인 추이를 파악한 후 세부 분석을 진행합니다.
매출은 결국 [사용자]가 [상품]을 [구매]하여 발생하는 결괏값입니다. 이에 따라 [사용자]와 [상품]의 측면에서도 분석을 진행합니다.
: 카테고리별, 브랜드별, 상품별 매출 추이
프로모션의 매출을 브랜드, 카테고리 등으로 나눠서 확인해 봅니다.
더 개별적으로는 브랜드를 기준으로 매출과 월별 성장률 등을 확인하며 주요 브랜드를 도출하기도 합니다.
프로모션을 진행하고 쌓인 데이터를 분석하고 회고하고 다음 프로모션에 적용하는 것. 그것이 프로모션 측면에서 데이터를 활용한 데이터 마케팅이라고 볼 수 있습니다.
이외 데이터마케팅은 어떤 부문에도 동일하게 적용됩니다. 정량적인 수치로 표현되는 데이터를 쌓고, 데이터를 여러 측면에서 분석하고, 다음 유사 업무 시 배운 점을 적용하고 또 실험하는 것입니다.
September 12, 2024
MRR 이란?
Monthly Recurring Revenue로 월간 반복 매출 구독형 서비스의 경우 핵심 지표로 활용됩니다.
요즘은 누구나 한 번 쯤은 구독형 서비스를 결제해본 경험이 있을텐데 구독 비즈니스는 사용자가 카드를 등록하면 자동으로 월마다 반복적으로 자동결제가 됩니다. (유튜브 프리미엄 구독, 넷플릭스 등)
MRR 산출 공식은 다음과 같습니다.
예를 들면, 유튜브 프리미엄 월 구독 비용이 10,000원이고 이용자가 10명이라면 MRR 은 100,000원이 되는 겁니다.
그런데 MRR이 100,000원 입니다. 에서 끝나면 안되겠죠?
MRR이 어떻게 변화했는지를 분석하는 것도 굉장히 중요합니다.
MRR 지표를 쪼개보면 아래와 같습니다.
그러면 이 지표를 가지고 우리는 New MRR을 구할 수 있습니다.
실무하면서 MRR calculation 하는데 고생 고생을 했는데 이 방법으로 도움을 받을 수 있는 누군가를 위해 공유합니다.
우선 방법은 DB에 적재된 결제 데이터와 구글 스프레드 시트에서 세금계산서로 처리되는 고객 결제 내역을 바탕으로 Rawdata를 준비하고 파이썬을 활용해서 frequency(월결제, 연결제)를 flatten 해주고 이를 Looker Studio로 시각화해줍니다.
1. DB에서 데이터 불러오기
2. 구글 스프레드시트에서 데이터 불러오기
3. 파이썬으로 데이터 클렌징하기
4. 클렌징한 DB, 스프레드시트 데이터 합치기
5. 클렌징 결과 시각화를 위해 구글 스프레드시트로 보내기
6. Looker Studio로 시각화 하기
아래는 실제 활용했던 MRR 대시보드 입니다.
첫 번째 대시보드는 월매출과, MRR 지표 현황을 살펴보고 고객사별 월간 구독 현황을 확인 해볼 수 있고 ARR, 이번달 예상 매출도 확인 할 수 있게 구성했었습니다.
두 번째 대시보드는 위에서 언급한 대로 MRR 지표를 쪼개서 모니터링하는 대시보드입니다.
이를 통해 MRR 상승하는데 어떤 지표 때문에 상승했는지 한눈에 볼 수 있습니다. 또한 MRR 성장추이도 함께 볼 수 있도록 구성되었습니다. 이제 이 대시보드를 통해서 전사가 우리 서비스의 MRR 현황을 볼 수 있고 이탈한 유저수가 특히 많았던 월에는 고객 인터뷰를 진행해보거나 해당 유저들의 특징을 파악해보면 어떤 지점에서 불편함을 느꼈는지 페인 포인트는 무엇이었는지 원인을 파악하고 제품 개선에 반영해볼 수 있겠죠?
DB에서 결제 데이터를 위의 컬럼만 파이썬 SQLAlchemy 를 활용해서 데이터를 불러옵니다.
SELECT
user_id,
company_name,
sales,
pay_datetime_id,
freq,
user_status
FROM
(SELECT tmp2.user_id,
tmp2.company_name,
tmp2.id,
tmp1.sales,
date_format(tmp1.auth_date, '%Y-%m-01') auth_date,
tmp1.subscription_id,
tmp1.user_status,
tmp1.card_updated_at
FROM
(SELECT B.user_id,
A.sales,
A.auth_date,
A.subscription_id,
A.user_status,
A.card_updated_at
FROM
(SELECT st0.*,
st1.user_status,
st1.card_updated_at
FROM
-- billing_payment_history 테이블에서 조건에 맞는 데이터 가져오기
(SELECT billing_id,
subscription_id,
auth_date,
IF(cancelled_at IS NULL ,amount, IF (amount <= cancellation_cancel_amount,0,cancellation_remain_amt)) AS sales
FROM nicepay_billing_payment_history
) st0
left join
-- nicepay_card_info 테이블에서 가장 최근의 카드 정보(created_at이 최대인)를 가져오며, user_status를 is_deleted와 is_active 값에 따라 ‘churned_user’ 또는 ‘active_user’로 설정
(select t1.billing_id,
t1.created_at,
t1.is_deleted,
t1.is_active,
t1.created_at card_updated_at,
(case when t1.is_deleted = 1 and t1.is_active = 0 then 'churned_user' else 'active_user' END) user_status
from nicepay_card_info t1
inner join (select billing_id,
max(created_at) max_date
from nicepay_card_info
group by 1) t2
on t1.billing_id = t2.billing_id and t1.created_at = t2.max_date) st1
ON (st0.billing_id = st1.billing_id)) A
LEFT OUTER JOIN
(SELECT billing_id,
user_id
FROM nicepay_billing_info) B
ON (A.billing_id = B.billing_id)) tmp1
INNER JOIN (SELECT user_id,
company_name,
id
FROM user
) tmp2
ON (tmp1.user_id = tmp2.user_id)) tmp3
inner join
(select seq,
freq,
date_format(plan_start_datetime_id, '%Y-%m-01') subscription_plan_start_datetime_id
from subscription) tmp4
ON (tmp3.subscription_id = tmp4.seq)
where sales > 0;
먼저 계산을 위해 필요한 데이터를 DB에서 추출해주고 flatten을 해줄껍니다.
flatten이 뭐냐 뜻 그대로 평탄화한다는 의미입니다. 예를들어 고객이 연간 결제를 1,200,000원을 했다고 하면 월별 결제액은 12개월로 나눠서 월별로 데이터를 평탄화 해주는 과정이라고 보시면 됩니다.
#expand the yearly records
mrr_base = mrr_df.loc[np.repeat(mrr_df.index, mrr_df['freq'].map({"years":12,"months": 1}))]
mrr_base.loc[mrr_base["freq"] == "years", "sales"] /= 12
mrr_base.loc[mrr_base["freq"] == "years", "pay_datetime_id"] += \
mrr_base.groupby(["user_id", "freq"]).cumcount().loc[mrr_base["freq"] == "years"]\
.map(lambda i: pd.DateOffset(months=i))
저의 경우 DB에 기록되지 않은 세금계산서 데이터를 가지고 있었는데
해당 데이터는 구글 스프레드시트에 기록하고 있으므로 구글 스프레드시트에서 데이터를 불러옵니다.
#구글 스프레드시트에서 data load하기
scope = ['https://spreadsheets.google.com/feeds',
'https://www.googleapis.com/auth/drive']
credentials = ServiceAccountCredentials.from_json_keyfile_name(
'credential 파일 경로(json파일)', scope)
gc = gspread.authorize(credentials)
spreadsheet_url = "가져올 스프레드시트 주소"
gc1 = gc.open_by_url(spreadsheet_url).worksheet('시트 이름')
#기존에 기록된 데이터 가져와서 리스트 형태로 리턴
gc2 = gc1.get_all_values()
#데이터프레임으로 판다스로 가져오기
gc2 = pd.DataFrame(gc2, columns=gc2[0])
gc2 = gc2.reindex(gc2.index.drop(0))
#날짜 형식으로 변경
gc2['pay_datetime_id'] = pd.to_datetime(gc2['pay_datetime_id'])
#sales 컬럼 숫자로 변경
gc2['sales'] = gc2['sales'].astype(str).astype(int)
#expand the yearly records
gc2_base = gc2.loc[np.repeat(gc2.index, gc2['freq'].map({"years":12, "months": 1, "2years":24}))]
# compute monthly fee and join date
#years 12개월로 나누기
gc2_base.loc[gc2_base["freq"] == "years", "sales"] /= 12
gc2_base.loc[gc2_base["freq"] == "years", "pay_datetime_id"] += \
gc2_base.groupby(["user_id", "freq"]).cumcount().loc[gc2_base["freq"] == "years"] \
.map(lambda i: pd.DateOffset(months=i))
#2years 24개월로 나누기 / years 12개월로 나누기
gc2_base.loc[gc2_base["freq"] == "2years", "sales"] /= 24
gc2_base.loc[gc2_base["freq"] == "2years", "pay_datetime_id"] += \
gc2_base.groupby(["user_id", "freq"]).cumcount().loc[gc2_base["freq"] == "2years"] \
.map(lambda i: pd.DateOffset(months=i))
gc2_base_result = gc2_base[['user_id', 'company_name', 'sales', 'pay_datetime_id', 'freq']]
출처: https://botongsaram.tistory.com/entry/B2B-SaaS-MRR-계산하기 [알랭드보통사람:티스토리]
위의 과정에서 DB에서 불러온 데이터와 구글 스프레드시트의 데이터 형태를 통일 시켰습니다.
이제 Raw Data를 만들기 위해서 합쳐줍니다.
#구글시트rawdata와 DB에서 불러온 데이터의 결합
df_union= pd.concat([mrr_result, gc2_base_result])
데이터를 통합한 다음에 데이터 시각화를 위해 데이터 시각화를 위해 스프레드시트에 최종 정리된 데이터를 다시 구글 스프레드시트로 전달합니다.
# union 된 결과를 다시 구글 스프레드시트로
scope = ['https://spreadsheets.google.com/feeds',
'https://www.googleapis.com/auth/drive']
credentials = ServiceAccountCredentials.from_json_keyfile_name(
'credential 파일 경로(json)', scope)
gc = gspread.authorize(credentials)
spreadsheet_url = '스프레드시트주소
gc_mrr = gc.open_by_url(spreadsheet_url).worksheet('새로 데이터를 업로드할 시트명')
#기존에 기록되어 있던 데이터 삭제(처음 업로드할 때는 필요 없음)
gc_mrr.clear()
# 오늘 가져온 데이터 업로드
gd.set_with_dataframe(gc_mrr,merge)
위의 결과는 MRR 대시보드 예시(1)에서 활용했던 과정입니다.
다음으로 MRR detail view 에 사용될 지표를 만들 차례입니다.
# pay_datetime_id 열에서 월과 연도를 추출하여 새로운 열 생성
mrr_detail_result['month_year'] = mrr_detail_result['pay_datetime_id'].dt.to_period("M")
# max_date 컬럼 만들기
mrr_detail_result['max_date'] = pd.NaT
mrr_detail_result.head()
# user_id를 기준으로 그룹화
grouped = mrr_detail_result.groupby('user_id')
# 각 그룹에서 최대 결제일을 찾고 max_date 열에 할당
for name, group in grouped:
max_date = group['pay_datetime_id'].max()
max_index = group['pay_datetime_id'].idxmax()
mrr_detail_result.loc[group.index, 'max_date'] = max_date
# 데이터프레임을 corporate_id와 pay_datetime_id 기준으로 정렬
transactions_ver2 = mrr_detail_result.sort_values(by=['corporate_id', 'pay_datetime_id'])
# 이전 거래 금액을 저장할 새로운 열 prev_amount 추가
transactions_ver2['prev_amount'] = transactions_ver2.groupby('corporate_id')['sales'].shift(1)
# 사용자 상태를 저장할 새로운 열 user_status 추가
transactions_ver2['mrr_status'] = 'new'
# 이전 거래 금액과 동일한 금액을 가진 사용자에게 'existing' 할당
transactions_ver2.loc[transactions_ver2['sales'] == transactions_ver2['prev_amount'], 'mrr_status'] = 'existing'
# 이전 거래 금액보다 높은 금액을 가진 사용자에게 'upgrade' 할당
transactions_ver2.loc[transactions_ver2['sales'] > transactions_ver2['prev_amount'], 'mrr_status'] = 'upgrade'
# 이전 거래 금액보다 낮은 금액을 가진 사용자에게 'downgrade' 할당
transactions_ver2.loc[transactions_ver2['sales'] < transactions_ver2['prev_amount'], 'mrr_status'] = 'downgrade'
# 이전에 'churned' 상태였고 이제 새로운 거래가 있는 사용자에게 'reactivation' 할당
# 모든 고유한 corporate_id 값을 포함하는 리스트 생성
corporate_ids = transactions_ver2['corporate_id'].unique()
# 각 corporate_id에 대해 루프를 돌며 각 거래의 상태를 업데이트
for corporate_id in corporate_ids:
user_data = transactions_ver2[transactions_ver2['corporate_id'] == corporate_id]
for i in range(1, len(user_data)):
prev_month = user_data.iloc[i-1]['month_year']
curr_month = user_data.iloc[i]['month_year']
if (curr_month - prev_month).n > 1:
transactions_ver2.loc[(transactions_ver2['corporate_id'] == corporate_id) & (transactions_ver2['month_year'] == curr_month), 'mrr_status'] = 'reactivation'
# user_status가 churn_user인 사용자의 마지막 결제일에 'churn' 상태 할당
transactions_ver2.loc[(transactions_ver2['user_status'] == 'churned_user') & (transactions_ver2['pay_datetime_id'] == transactions_ver2['max_date']), 'mrr_status'] = 'churned'
transactions_ver2.head()
이제 MRR 대시보드 예시(2)에 활용된 데이터가 전처리되었고 구글 스프레드시트로 데이터를 적재해주면 됩니다.
이걸 매일 하기는 귀찮으니 Airflow DAG를 활용해서 자동화해주면 됩니다.
여기까지 MRR계산을 위해 SQL, 구글 스프레드시트, python을 활용한 과정을 소개해봤습니다.
누군가 B2B SaaS에서 MRR 계산을 위해 고군분투하고 계시다면 이 코드가 도움이 되시면 좋겠네요
추가로 초기에 대시보드 기획에 많은 참고가 되었던 Baremetrics라는 MRR 대시보드 외산 툴이 있는데 상당히 잘만들었다고 생각되는 서비스입니다.
SaaS 비즈니스를 운영하신다면 참고해보시면 좋을 서비스네요!
September 9, 2024
분석 데이터의 하위 집합입니다.
사용자, 세션, 이벤트 데이터를 분리해서 세그먼트를 정의하면 분석하고자 하는 대상을 쉽게 정의할 수 있게 만드는 기능입니다.
세그먼트를 정의하게 되면 특정 유저의 그룹 vs 나머지 유저의 특징을 비교 분석해 볼 수 있습니다.
GA4에서 세그먼트 기능을 통해 웬만한 유저들의 특징을 잡아낼 수 있습니다.
그런데 GA4가 어떻게 유저들의 행동 데이터를 수집하고 활용하는지 제대로 알지 못하면 활용하기 힘들겠죠?
이번 글에서는 큰 틀에서 GA4가 어떤 원리로 조건이 설정되는지 알아보려고 합니다.
세그먼트 생성화면을 들여다보면 꽤 많은 조건들을 설정할 수 있는 기능들이 많습니다.
일단 크게 3가지 유형의 세그먼트가 있습니다. (아래 유형에 대한 이해를 잘하셔야 합니다.)
세그먼트 유형 선택은 세그먼트를 조건에 해당하는 결과와 관련이 있는 거라고 생각하시면 이해하시기 쉬울 겁니다.
특히! 각 유형별로 소스 / 매체 선택할 때 주의할 점을 꼭! 숙지하시길 바랍니다!
이렇게 정의는 그럭저럭 이해는 할 수 있지만 역시 예시를 통해 어떻게 데이터가 선택되는지 알아보겠습니다.
특정 유저가 2개의 세션 안에서 몇 가지 이벤트를 발생시켰다고 가정해 보겠습니다.
1. 사용자 세그먼트 예시
사용자 세그먼트 기준으로 구매한 유저를 세그먼트를 만들면 어떻게 데이터가 선택될까요?
총 7개의 이벤트가 모두 선택됩니다. 사용자 기준이니까 조회한 날짜에 있는 이벤트가 모두 포함되기 때문입니다.
2. 세션 세그먼트 예시
최소 한 개의 구매 이벤트가 발생한 모든 세션의 데이터기 때문에 이 기준으로 충족되는 데이터는 purchase(구매) 이벤트가 발생한 session - 2 만 선택됩니다( session - 1 에는 구매 이벤트가 없음)
3. 이벤트 세그먼트 예시
이벤트 기준이면 기준에 맞는 이벤트만 선택한다는 말이기 때문에 session - 2에서 발생한 purchase 이벤트만!! 선택됩니다. 다른 이벤트는 선택 안됩니다!
여기서는 어떤 조건의 유저를 선택할지 셋팅하는 옵션을 선택할 수 있습니다.
여기서 AND, OR 조건을 선택할 수 있는데 회원가입과 구매 이벤트를 발생시킨 유저 선택해 보겠습니다.
그런데 하단에 보면 포함할 조건 그룹 추가라는 버튼이 있습니다.
동일한 방식으로 회원가입과 구매를 한 조건을 설정하면 이렇게 할 수 있죠
즉 하나의 조건 그룹에 회원가입 이벤트와 구매 이벤트를 선택한 것이고 나머지 하나는 두 개의 조건 그룹에 회원가입 이벤트와 구매 이벤트가 각각 설정을 했습니다.
첫 번째 방식과 차이점은 뭘까요? 동일한 결과가 나올까요? 결과는 동일합니다.
???
이게 무슨 말이냐면 그룹 간 영역에서 오른쪽 상단에 보면 사람모양의 드롭다운 버튼이 있습니다.
이걸 클릭하면 조건 범위를 지정할 수 있습니다.
세그먼트 설정할 때랑 동일한 방식이죠? 사용자, 세션, 이벤트 단위로 조건설정이 가능합니다.
세션 및 이벤트 세그먼트에는 조건 지정 범위에 대한 옵션이 더 적습니다. 아래 표는 사용할 수 있는 세그먼트 유형별 조건 범위 간 조합입니다.
다시 예시를 들어볼게요
GA4에서 첫 구매 유저를 따로 이벤트를 개발하지 않으면 특정하기 힘든데 회원가입 후 첫 구매 유저를 세그먼트로 한 번 만들어 보겠습니다.
해당 유저들을 특정하기 위한 필요한 이벤트는 first_visit(첫 방문)과 purchase 이벤트겠죠?
첫 구매 유저를 특정한다고 해도 이를 어떻게 정의하느냐에 따라 결과는 달라집니다! (주의!!)
유저의 행동은 정말 엄청나게 많은 경우의 수로 발생을 하죠.
A유저 : 구매 의사 결정이 빠른 A유저는 동일한 세션 시간 내에서 구매
B유저 : 구매 의사 결정이 느린 B유저는 어제 상품을 처음 둘러보고 내일 구매
이 예시처럼 첫 구매를 동일한 세션 시간내 첫 구매를 한 유저를 특정할 것인지, 세션에 상관없이 첫 구매 유저를 식별한 것인지 정의하기 나름입니다.
첫 구매 유저 세그먼트를 만든다면 어떤 조건을 설정해야 될까요?
사용자 세그먼트를 기준으로 세그먼트를 설정하면 유저의 조건에 해당하지 않는 방문데이터도 포함되게 됩니다.
그러니까 첫 방문 이후 첫 세션에 구매를 하지 않아도 구매를 특정시킨 뒤에 제외 조건을 구매 조건을 2번 이상으로 설정하여 첫 구매한 유저를 식별할 수 있습니다.
그런데 first_visit, 첫 구매 사용자의 방문 데이터만 확인하고자 한다면 사용자 세그먼트가 아닌 세션 세그먼트를 기준으로 동일 세션 내의 조건 범위를 선택하여 세그먼트를 생성해야 합니다.
첫 구매 유저를 모든 세션 범위 조건으로 하여 세그먼트를 생성하고 재구매자(purchase 이벤트가 2번 이상)와 겹치는 부분이 없는지 세그먼트 중복 기능을 활용해 벤다이어그램으로 확인해 보겠습니다.
중복 없이 잘 나뉘었습니다. 이런 식으로 내가 가진 유저의 특징을 세그먼트로 만들어서 비교해 보는 과정이 굉장히 중요한 것 같습니다.
이 개념을 토대로 한 번 만들어 보시면 좋을 것 같습니다.
GA의 세그먼트는 생각보다 할 수 있는 게 많긴 합니다.
하지만 제대로 활용하기 위해서는 위에 설명한 개념들이 잘 정리가 되어 있어야 됩니다.
이번 글을 쓰면서 느낀 건 솔직히 GA4는 사실 Amplitude를 사용해 봤다면 이런게 다 있나 싶을 정도로 불편하고... 뭔가 찜찜한 느낌을 지울 수 없었습니다.
이번 글에서 첫 구매 유저 세그먼트를 예시로 들었는데 GA4에서 First time purchases라는 측정항목이 존재하긴 하지만
이를 세그먼트로 활용은 못합니다... 약간 독립적인 측정항목 같은 느낌입니다.
Amplitude에서는 사실 아주 간단하게 첫 구매 유저를 특정할 수 있는 Historical Count 기능이 있어서.. 아쉬웠습니다.
(물론 제약 조건은 있습니다. 날짜 범위가 시작되기 전 최대 1년까지 기간만 포함됩니다. 그래도 이건 혁명적인 기능!)
본질적으로 GA의 목적은 유저 획득에 초점을 맞춰져 있다면 Amplitude는 Product Analytics 툴로 사용자 행동 분석에 초점이 맞춰져 있긴 합니다. 그래서 목적에 맞지 않아서 해당 기능 개발을 하지 않은 건가 싶기도 합니다.
당장 앰플리튜드를 도입하지 않을 거라면 속 편하게 GA4에서 First Purchase 이벤트 개발을 요청하거나 혹은 일단 소개드린 방식대로 우선 트렌드만 확인하는 용도로 세그먼트를 생성해서 데이터를 분석하시는 걸 권장드립니다.
September 6, 2024
전 보통 평일 아침에 운동을 하는데, 끝나고 나면 다른 멤버분들과 이야기를 나누게 됩니다. 아무래도 출근 시간이다보니 스몰톡이 직업 쪽으로 흘러갔습니다. [마케팅]을 하고 계신다고 하시더라고요.
반가운 마음에 전 그로스마케팅을 한다 말해더니 모르는 눈치십니다. [퍼포먼스마케팅]을 하시는 거냐 물었더니 그렇다고 합니다. 어떤 매체를 주로 운영하시냐 했더니 말끝을 흐리십니다.
얘기해보니 그 분의 업무는 <인스타그램 계정 육성> 이었습니다. 특정 부문의 콘텐츠만 게재하는 다수의 계정을 생성해서 ~N만의 팔로워를 가진 계정으로 키우고 광고를 받으며 수익화를 하는죠. 즉 [SNS마케팅]이자 [콘텐츠마케팅]이자 [인플루언서 마케팅]입니다. 저 또한 헷갈렸습니다. 이 또한 퍼포먼스 마케팅일까...?
퍼포먼스는 마케팅은 퍼포먼스(Performance)의 실적, 성과라는 뜻에서 파생됩니다. 즉 퍼포먼스 마케팅이란 성과를 확인할 수 있는 마케팅입니다. 성과란 일의 결과를 뜻하고요.
시험을 보고 성적표를 받듯, 마케팅을 하고 이 일에 대한 성적표를 만들 수 있는 것이 퍼포먼스 마케팅입니다. 어떤 요소에서 얼마나 잘했는지에 대해서 수치 기반의 정량적인 기준으로 평가할 수 있는 거죠.
전통적인 마케팅은 주로 ATL (Above The Line)에 속하는 전통적인 매체를 통한 것을 말합니다. TV, 라디오, 옥외 광고, 신문 등이 있겠죠.
이러한 매체들은 몇 명에게 노출되었는지까지는 대략 추산할 수 있지만 실제로 그 중에 몇 명이 어느 정도로 관심을 보였는지를 알 수 없습니다.
즉 TV가 틀어져있는 가구수는 셀 수 있겠지만, 그 가구 내에서 몇 명의 인원이 영상을 보고 있었는지, 다른 일을 하면서 보고 있었는지 아니면 TV 영상에만 집중하고 있었는지, 그래서 TV 광고에 나온 상품을 인지하게 되었는지 상호 작용이 불가능하므로 알기 어렵습니다.
라디오나 옥외광고도 마찬가지로, 라디오가 청취수는 알겠으나 청취수는 청취자수와 일치하지 않고 옥외광고의 경우 그 앞을 지나간 사람들을 추산할 수 있을 뿐입니다. 그러므로 전통적인 마케팅에서의 ATL 매체는 성과를 정확하게 측정하기가 어렵습니다.
그래서 비즈니스에서는 ROI를 묻습니다. 투자금 대비 이익률이죠. (이익-마케팅 비용)/(마케팅 비용)의 수식으로 비용 대비 매출이 아닌 [이익]의 수준을 봅니다.
마케팅에서는 주로 ROAS를 봅니다. (마케팅에 의한 매출)/(마케팅 비용)의 수식입니다. 여기서 주목할 점은 <마케팅에 의한 매출>입니다.
마케팅에 의한 매출 = 마케팅에 의한 성과, 이를 알고 싶었기 때문에 성과(매출)을 측정할 수 있는 퍼포먼스 마케팅이 중요해졌다고 볼 수 있습니다.
특정 브랜드에서 마케팅을 운영한다고 할 때, 사용자는 신규와 기존으로 나눌 수 있습니다. 신규는 우리를 모르는 사람들, 기존은 우리를 아는 사람들로 정의할 수 있겠으나 [안다/모른다]의 상태를 명확하게 구별해줄 수 있는 변인이 필요합니다.
대개 이 상태를 [가입] 행동으로 구분합니다. 즉 이미 우리 브랜드의 회원인 사용자는 기존, 비회원인 사용자는 신규가 되는 것이죠. 이와 같이 신규 사용자를 대상으로 하는 마케팅을 사용자 획득: UA (User Acquisition) 이라고 합니다.
인지도 증대 및 관심 유도에 유효한 [배너 광고]
배너 광고 매체들은 마케터가 아니어도 익숙한 이름들입니다. 말 그대로 '배너'가 노출되어야 하기 때문에 많은 수의 사용자를 확보하고 있는 플랫폼이어야 경쟁력이 있기 때문이죠.
의사결정 및 구매 전환에 유효한 [검색 광고]
A/B 테스트는 원칙적으로 대조군(Control Group)과 실험군(Experimental Group)을 나누어 다른 모든 환경이 동일하다고 할 때, 한 가지의 변인을 다르게 하여 그 변인의 영향도를 실험하는 것입니다.
광고 집행 시, 모든 외부 요인을 통제할 수 없기 때문에 그 부분을 감안하고 광고 셋팅(타겟팅 등)이나 소재를 A/B 테스트 해볼 수 있습니다. 특정 상품의 경우 소재에서 어떤 내용을 강조할지가 주요 테스트 내용이 됩니다. 1. 개발스토리 2. 리뷰 3. USP 4. 가격 등 강조할 수 있을만한 것들을 제일 메인 요소로 활용해보는 것입니다. A/B 테스트는 매우 큰 개념으로 마케팅에서도 매체, 세팅/타겟팅, 소재 기획/제작 등에서 다양하게 적용될 수 있습니다.
1. 인지도 증대 (Awareness)
'트래픽' 캠페인으로도 불립니다. 불특정 다수(오픈타겟, 논타겟)에게 최대한 많은 도달/노출을 이루어 제품의 인지도 향상과 클릭에 의한 유입, 트래픽을 의도합니다.
2. 관심 유도 (Interest)
타겟 세팅 시 관심사를 설정하여, 다른 행동으로 특정 관심사를 가진 것으로 추론되는 사용자들에게 소재를 노출할 수 있습니다. 혹은 관련도가 높은 웹사이트로 노출 위치를 설정할 수 있습니다.
3. 의사 결정 및 구매 전환 (Decision & Action)
구매 의도 있는 상태에서 특정 키워드를 검색했을 시 광고가 노출되거나, 이전에 방문했던 사용자를 대상으로 재방문 등을 유도할 수 있습니다.
배너 광고든 검색 광고든 각 매체를 통해서 광고가 운영이 되면 관심을 가진 사람들이 클릭하여 설정해둔 페이지로 유입됩니다.
이 때, 페이지에 유입된 사용자가 100명이라고 할 때 (이 100명을 정확하게 구분하는 것도 꽤 어려운 일입니다...) 100명이 [배너 광고]를 보고 왔을지 [검색 광고]를 보고 왔을지 [배너 광고]도 보고 [검색 광고]도 보고 왔을지, [배너 광고]만 보고 10일 후에 페이지 주소를 입력해서 들어왔을지...
어떤 채널, 어떤 매체로 들어왔을지 유입 경로를 알고 싶다면 매체에 광고를 세팅할 때 URL에 UTM이라는 변수를 붙여준 후 이를 Google Analytics로 측정해야 합니다.
유상 광고의 경우 모든 광고 매체에서 관리자(Admin) 페이지를 지원하며 성과를 측정하여 보여주는데 굳이 구글 애널리틱스를 봐야하는 이유가 뭘까요?
자사몰에서의 단 한 건의 성과가 메타에서도 성과로 집계하고, 네이버에서도 성과로 집계하고, 구글에서도 성과로 집계될 수 있습니다. 자사몰 데이터 기준 전환 1건이, 광고 관리자 기준 전환 3건이 될 수 있는 것이죠. 그렇기에 매체 별 광고관리자만을 사용해서 성과를 측정하지 않고 웹으로 랜딩되는 경우 구글 애널리틱스(Google Analytics)를 주로 사용하는 것입니다.
광고 매체가 전환에 기여한 기준은 기간과 방식에 따라 달라질 수 있습니다. 기여 기간을 1일로 설정한다면 3일 전 클릭한 성과는 인정되지 않을 수 있습니다. 기여 모델은 라스트 터치, 퍼스트 터치, 멀티 터치 등으로 구분되고 약 일주일 간 광고를 운영했을 때 (메타, 네이버, 구글 등)
- 사용자가 구매하기 전 마지막으로 누른 광고 매체가 가장 크게 기여했다고 한다면 > 라스트 터치 (Last touch) 모델,
- 사용자가 구매하기 전 처음으로 누른 광고 매체가 가장 크게 기여했다고 한다면 > 퍼스트 터치 (First touch) 모델입니다.
그에 따라 MMP(Mobile Measurement Partner)로 통칭되는 Appsflyer, Airbridge, Adjust와 같은 SDK를 붙이는 등의 추가 tracker가 필요합니다.
보통은 이 부분에서 가장 많은 어려움을 겪습니다. GA와 MMP, 여기서 CRM 솔루션(Braze, Insider 등) 이나 PA(Product Analytics: Amplitude, Mixpanel 등) 솔루션까지 쓴다면 솔루션 내의 데이터 정합성을 맞추는 것 등의 관리가 복잡해지기 때문입니다.
마케팅 웹(Web) 캠페인의 성과는 웹페이지로 랜딩되기에 GA만으로도 측정이 수월합니다. 문제는 앱설치를 목표로 앱스토어로 랜딩시키면서 시작됩니다. 그래서 보통 앱 성과 데이터를 측정하기 위핸 MMP (앱스플라이어/Appsflyer, 에어브릿지/Airbridge, 애드저스트/Adjust 등)을 도입하는데요.
위의 데이터파이프라인 예시처럼, 구글 애널리틱스의 웹 데이터 앱스플라이어의 앱 데이터, 기타 광고 매체들의 광고 데이터를 모아 구글 빅쿼리에 적재하고 이를 태블로를 통해서 대시보드로 제작합니다.
다양한 시각적 형태로, 다양한 성과를, 다양한 차원으로 볼 수 있습니다. 커머스의 배너 성과를 볼 수도 있고, 상품/카테고리/브랜드의 매출 성과를 볼 수 도 있고, 광고 성과를 볼 수도 있습니다. 유입된 광고 매체에 따라 유저들의 LTV로 대변되는 충성도가 다른지도 확인할 수 있고요.
처음의 의문으로 돌아가자면, 인스타그램 계정 키우기도 어떤 측면에서는 퍼포먼스 마케팅으로 볼 수 있겠습니다. '측정'이 가능하기 때문입니다. 콘텐츠를 올리면서 올라가는 팔로워수, 피드의 좋아요수 및 댓글수 그리고 릴스의 조회수 등으로 계정의 성장을 숫자로 '측정'할 수 있습니다.
최근 읽은 '순서 파괴'라는 책에서 인상 깊게 읽은 부분이 있습니다. 아마존의 주요 구성원들이 아마존의 일하기 방식에 대해서 쓴 책입니다.
아마존에서는 목표를 설정할 때 아래 다섯 개 요소를 반영한다고 합니다.
이 중 저에게 가장 와닿았던 것은 측정에 관한 것이었습니다.
September 4, 2024
Google Analytics를 사용해 보셨다면 ‘세션’이라는 용어에 익숙하실 것입니다. Universal Analytics(GA3)에서는 세션 단위로 데이터를 수집하여 지표를 측정했지만, GA4에서는 데이터 수집 방식이 달라져 주의가 필요합니다. GA4의 세션 관련 지표는 혼란을 일으킬 수 있습니다.
이번 글에서는 세션의 개념을 자세히 살펴보고, GA4에서의 세션이 어떻게 다른지 알아보겠습니다.
세션 관련해서 구글 가이드 문서에 따르면
- 세션은 사용자가 웹사이트 또는 앱과 상호작용하는 기간입니다.
- 세션은 사용자가 앱을 포그라운드에서 열거나 페이지나 화면을 보고 현재 활성화된 세션이 없는 경우 시작됩니다.
- 세션 수 : 고유 세션 ID 수를 추정하여 사이트나 앱에서 발생하는 세션 수를 계산합니다.
예를 들어 유저가 브라우저 탭에서 페이지를 열고 이메일을 확인하거나 다른 일을 하다가 2시간 뒤에 다시 돌아와서 브라우징을 할 수 있겠죠? GA4에서는 이를 페이지 뷰가 있는 세션으로 보고 2시간 뒤에 사용자 참여로 간주하고 새로운 세션으로 기록합니다.
1. 첫 번째 세션:
2. 두 번째 세션:
이때 새로운 세션이 시작되지만 페이지 조회 이벤트는 기록되지 않습니다.→ 두 번째 세션이 사용자 참여로만 기록됩니다
빅쿼리로 실제 어떤 케이스인지 특정 유저의 로그를 한 번 확인 해보겠습니다.
이렇게 페이지뷰 이벤트가 없는 두 번째 세션이 생기며, 이는 참여율(Engagement Rate) 지표로 나타납니다.
참여율 = 참여 세션 수 / 총 세션 수
이런 유저가 많아지면 세션 기반의 지표(예: 세션당 페이지뷰, 세션당 평균 참여시간)가 낮아집니다.
세션당 페이지뷰 수 계산 예시:
페이지뷰 수 / 세션 수 = 10 / 1 = 10
위와 같은 유저의 행동이 늘어나면:
페이지뷰 수 / 세션 수 = 10 / 2 = 5
페이지뷰 이벤트가 포함되지 않은 세션이 발생하니 지표가 감소하게 됩니다.(분모가 커지므로)
따라서 GA3에서 사용하던 세션 기반의 지표는 주의해서 사용해야 하며, 이벤트나 참여 관련 지표(참여 세션)를 보는 것이 좋습니다.
(GA4와 GA3의 데이터 수집 방식도 다릅니다)
자.. 그리고 또 있습니다.
세션 데이터의 현실.. 빅쿼리를 열어보면 .. 더 조심해야겠구나 라는 생각이 들겁니다.
일단 절대 세션수 ≠ session_start 이벤트의 수 가 아닙니다.
왜그런지 직접 조회해보죠!
아래 특정 유저의 세션을 특정해서 조회해봤습니다.
event_name 컬럼에 session_start 이벤트는 없고 다른 이벤트만 있죠?
이런 상황은 빈번하지 않지만 발생할 수 있습니다. 하나의 세션에 두 개의 세션 이벤트가 발생했고, 심지어 사용자 아이디도 다릅니다.
GA4 인터페이스에서는 당연히 단일 세션으로 계산하지 않을 것 같지만 빅쿼리에서는 이런 케이스 때문에 user_pseudo_id와 ga_session_id를 조합해서 각 세션에 대한 고유 식별자를 만들어서 session 을 카운팅 해야됩니다.
concat(user_pseudo_id, (select value.int_value from unnest(event_params) where key = 'ga_session_id')) as session_id,
GA3에서는 세션 윈도우(30분)가 지나면 완전히 새로운 세션이 시작되지만, GA4에서는 기존 세션이 계속 되기 때문에 이렇게 소스가 1개 이상 발생할 수 있습니다.
구글 애널리틱스에서도 세션수를 집계할 때 추정값을 사용합니다.
실제로 빅쿼리에 count(distinct ga_sesssion_id) 를 집계하면 성능에 영향을 줍니다..
그런데 전 세계에서 이걸 조회하는데 이걸 진짜 집계를 ?? 불가능하죠
그래서 HyperLogLog ++ (가이드 링크)라는 알고리즘을 적용해서 추산한 값을 보여줍니다.
실제로 성능을 눈으로 확인해보죠
ga_session_id를 고유하게 카운팅 해보는 쿼리로 비교를 해보겠습니다.
COUNT(DISTINCT ga_session_id)
HLL_COUNT.EXTRACT(HLL_COUNT.INIT(ga_session_id, 14))
차이가 보이시나요? (참고로 데이터 하루치만 조회했고 쿼리 결과는 같습니다)
모든면에서 더 효율적인 처리를 하고 있음을 알 수 있습니다.
사실 GA4에서는 세션이라는 개념은 더 이상 의미가 없고 지금까지 위의 예시를 통해 확인할 수 있었습니다.
그럼에도 세션 지표를 무조건 써야된다면 참여 세션지표를 사용하는게 좋습니다.
이제 이걸 통해서 다음 글에서는 GA4의 꽃 세그먼트 분석에 대해서 알아보겠습니다.
(세그먼트 기능을 쓰려면 세션에 대한 이해가 꼭 필요하기 때문에 이번 글부터 시작하게 되었습니다.)
September 2, 2024
디지털 전환이란 무엇일까요? DT 또는 DX로도 불리는 디지털 전환은 Digital Transformation에서 유래했습니다. 여기서 Transformation, 전환은 상태의 변화를 말합니다. 즉 디지털이 아니던 것이 디지털 상태로 변화하는 것입니다.
디지털 전환, 어쩐지 거창합니다. 마티니의 그로스팀에서 큰 규모의 회사를 방문했을 때 주로 DX실, DT실이 명함에 기재된 경우가 많더라고요. 즉 큰 곳에서 시도하는 경우가 많다는 것이겠죠.
온라인 비즈니스는 진행 중입니다. 오프라인을 온라인으로 전환시키는 DX와 DT는 상당수 진척되었습니다. 평범한 일상만 생각해 봐도 그렇습니다.
즉 현재의 디지털 트랜스포메이션, 디지털 전환(DT, DX)의 주요 과제는 오프라인의 온라인 전환은 아닌 듯합니다.
우리 프로덕트의 사용자가 10명, 100명, 1,000명일 때는 수기가 가능할 수 있습니다. 10명에게는 매일 전화를 할 수도 있을 것이고, 100명에게는 문자를 보낼 수 있을 것이고, 1,000명까지는 어떻게 수기로 그룹화를 해서 카카오톡을 보낼 수도 있겠죠.
하지만 [10,000명] 에게는요? [100,000명] 에게는요? 예를 들어보겠습니다.
[CRM마케팅/수동]
#1 보유한 데이터베이스(DB)에 접근하여
#2 조건에 맞는 쿼리문을 작성하여#3 '고정된 시점'의 사용자 데이터를 추출함
#4 성과 분석 시, 동일 프로세스를 거쳐 특정 시점의 사용자 데이터를 재추출함
#5 엑셀 등을 활용하여 수기로 데이터 값을 비교함
[CRM마케팅/자동] *솔루션 활용
#1 보유한 데이터베이스(DB)를 CRM 솔루션의 클라우드에 연동하고
#2 CRM 솔루션의 어드민에서 변수를 조절하여 (클릭!)
#3 '실시간'으로 사용자 데이터를 추출함
#4 성과 분석 시 어드민에서 변수를 조절하여 (클릭!)
#4 솔루션에서 제공하는 대시보드/그래프 형태로 데이터 값을 비교함
[퍼포먼스마케팅/수동]
#1 광고 매체 별 광고관리자에서 성과를 엑셀로 다운로드 후
#2 보고용으로 맞춰둔 엑셀 형식에 맞춰 복붙 합니다. (ctrl+C, ctrl+V)
*매체 A, 매체 B, 매체 C, 매체 D.... 매체를 많이 쓸수록 이 절차는 많아집니다.
**혹시 글로벌이라면? 국가별로도 쪼개줘야 합니다.
***신규 사용자와 기존 사용자의 리타겟팅을 나눈다고요? 이것도 쪼개서...
#3 매체 성과와 자사 내부 DB 성과의 숫자가 맞지 않습니다.
기여 모델 및 기여 기간의 설정이 다르거나...
[퍼포먼스마케팅/자동]
#1 광고 매체 별 데이터를 연동합니다.
#2 광고 매체와 MMP, CRM 솔루션의 데이터를 통합합니다. (DW)
마케팅 업무 자동화, 마케팅 오토메이션(Automation)의 효율에 대해서 이야기를 종종 하게 되는데요. 업무 효율성을 높이는 것이 수익 상승에 기여하지는 않는단 의견을 종종 듣습니다.
문제 정의와 해결 방안 제시 및 대응. 문제 해결자(problem-solver)라는 직무도 존재하는 것처럼 사실 모든 직업은 분야와 내용과 형식이 다를 뿐, 어떠한 문제를 해결하는 것 아닐까요?
위의 사례로 들었던 CRM 메시지 수신자 추출도, 퍼포먼스마케팅 성과 분석도 고객(사용자)이 아닌 실무자에게 필요한 디지털 전환, 즉 마케팅 자동화의 일환인데요.
여러 기업들의 디지털 전환을 도우면서 가장 기본적이지만 가장 중요했던 것은 바로 '측정'입니다. 웹과 앱에서의 성과 측정을 위해 필수적인 것, 바로 UTM입니다.
웹페이지의 주소인 URL에 UTM 파라미터를 넣어 유입된 사용자들이 어떤 경로로 들어왔는지 파악할 수 있습니다.
보통 퍼포먼스 광고를 운영할 때 페이스북 광고관리자의 구성에 맞추어 캠페인/그룹/소재 단으로 구성하는 경우도 있습니다.
유상 광고(paid media)를 운영하는 퍼포먼스마케팅 외에, 인플루언서 마케팅(earned media)이나 유튜브/인스타그램/블로그 등에 자체 콘텐츠(owned media)를 게재할 때도 UTM을 삽입한 URL을 활용하면 좋습니다!
개인화 추천 시스템: 고객의 과거 구매 내역 및 검색 기록을 바탕으로 맞춤형 제품 추천
챗봇 및 가상 어시스턴트: 고객 문의 및 지원을 자동화하여 실시간으로 대응
고객 세그멘테이션: 고객 데이터를 분석하여 세분화된 마케팅 전략 수립
실시간 데이터 분석: 판매, 트래픽, 재고 등의 데이터를 실시간으로 분석하여 빠른 의사 결정 지원
스케일러블 인프라: 트래픽 변동에 유연하게 대응할 수 있는 클라우드 기반 인프라.
클라우드 기반 CRM: 고객 관계 관리 시스템을 클라우드에서 운영하여 언제 어디서나 접근 가능.
모바일 최적화 웹사이트 및 앱: 모바일 사용자를 위한 최적화된 사용자 경험 제공.
모바일 결제 시스템: 다양한 모바일 결제 옵션 지원.
온라인 및 오프라인 데이터 통합: 고객의 온/오프라인 행동 데이터를 통합하여 일관된 경험 제공.
클라우드 컴퓨팅, 증강 현실 (AR), 사물 인터넷 (IoT), 결제 기술, 로봇 프로세스 자동화 (RPA) 등이 디지털 전환에 필요한 주요 기술로 여겨집니다.
디지털 전환을 검색하면 정말 방대한 의미의 내용들이 나옵니다. 클라우드 컴퓨팅, 인공지능(AI)과 머신러닝(ML), 빅데이터 분석, 사물인터넷(IoT), 블록체인, 사이버 보안 등이 대표되는 단어죠.
생각해 보면 그로스 컨설팅이라고 꼭 디지털 전환이 완료된 상황에서만 될 수 있는 것은 아닙니다. 어느 영역의 디지털 전환이 그로스 컨설팅의 실행 방안이 될 수도 있는 것이죠.
Chat GPT가 생활화되고 AI에 대한 기사가 쏟아지는 요즘이지만, UTM을 잘 쓰는 것도 생각보다 어렵습니다. 디지털 전환을 위해 AI 도입보다 먼저인 것들이 있지 않을까요?
August 30, 2024
이 글을 읽고 계시다면 코호트 분석을 이미 하고 계실 건데 측정 기준에 대해서 의문이 생기신 분이 보실 것 같네요
구글에 '코호트 분석 SQL' 라고 검색하면 정말 많은 글들이 많습니다.
글에서 소개하는 쿼리 예시는 대부분 datediff함수를 활용해서 Date Granularity를 계산합니다.
이해하기 쉽게 예를 들어보겠습니다.
유저 1 : 23:30 에 회원가입 후 다음날 다시 들어왔습니다.
유저 2 : 13:30에 회원가입 후 다음날 다시 들어왔습니다.
day 단위로 계산을 하면 유저 1 은 우리 서비스를 30분 경험하고 다음날 재방문했다고 계산됩니다.
유저 2는 약 10시간 30분 서비스를 경험하고 재방문을 했다고 계산됩니다.
동일한 조건일까요? 그렇지 않죠?
만일 시간 단위로 계산을 하게 되면 특정 행동을 수행한 시간부터 다음 행동까지의 Time window를 24시간 뒤로 하면 이 유저는 다음날이 아닌 모레 재방문했다고 계산되겠죠?
DATEDIFF( [first_event_dt], [second_event], DAY )
DATEDIFF( [first_event_dt], [second_event], HOUR ) / 24 )
월단위로 계산할 때도 마찬가지입니다.
월별 일자수가 모두 다릅니다. 1월(31일), 2월(28일), 4월(30일)...
월 단위로 측정할 때도 30일로 모두 통일해줍니다.
DATEDIFF( [first_event_dt], [second_event], HOUR ) / 24 * 30)
이렇게 계산되면 유저별로 경과 시간은 모두 통일 되었습니다!!
실제로 Amplitude(앰플리튜드)의 코호트 분석 기능에는 이런 기능들이 존재합니다. 만약 안 쓰고 계시다면 직접 쿼리를 날려서...
여기 가이드를 보시면 앰플리튜드가 24시간 단위로 경과 시간을 측청 하는 방식을 설명해 두었습니다.
24시간 윈도우 기준, 캘린더 기준으로 경과 시간(t)을 측정하는 옵션이 있죠?
얼마나 차이를 보였는지 가상의 데이터로 확인을 해보았습니다.
(참고로 더미 데이터는 kaggle 이나 Mockaroo 에서 생성하실 수 있습니다)
참고로 해당 데이터 계산 기준은 월별 첫 구매 기준 재구매율입니다.
t = 1 지점부터 차이를 보이기 시작하는데 t = 0 이 100%라서 차이가 잘 안 보입니다. 로그 스케일을 통해 다시 확인해 보면
확실히 달력 기준의 리텐션율이 조금 더 높아 보이네요
얼마나 차이 나는지 두 기준의 리텐션율을 나눠 보겠습니다 최대 1.27배까지 납니다. (아래 차트에서는 0은 무시합니다. t = 0 은 100%이기 때문에)
t = 1 : 1.15배
t = 22 : 1.27배
데이터에 따라서 차이가 달라지겠지만
코호트의 기준이 만일 회원가입일 기준의 재구매율이거나 회원가입일 기준 재방문율을 측정한다면 더 많은 차이를 보일 수 있을 걸로 예상됩니다.
제가 사용한 쿼리는 아래와 같습니다.
WITH tb_pay_first AS (
SELECT country
,user_id
,min(pay_datetime_id) first_pay_datetime_id
FROM order
GROUP BY 1,2
)
, tb_base_ AS (SELECT st0.*
, FLOOR(TIMESTAMPDIFF(HOUR, st1.first_pay_datetime_id, st0.pay_datetime_id) / 24) AS days_since_first_pay
, FLOOR(TIMESTAMPDIFF(HOUR, st1.first_pay_datetime_id, st0.pay_datetime_id) / (24 * 30)) AS months_since_first_pay_period_24h
, (YEAR(pay_datetime_id) - YEAR(first_pay_datetime_id)) * 12 + (MONTH(pay_datetime_id) - MONTH(first_pay_datetime_id)) AS months_since_first_pay_period_day
, st1.first_pay_datetime_id
FROM order st0
LEFT JOIN tb_pay_first st1
ON st0.user_id = st1.user_id
AND st0.country = st1.country
WHERE 1 = 1
)
, tb_base_24h AS (
SELECT time_id_
, country
, since_time_period_24h
, CASE
WHEN 'acc' = 'normal' THEN SUM(SUM(IF(since_time_period_24h = max_since_time_period_24h, repurchase_user_cnt, 0))) OVER
(PARTITION BY time_id_, country ORDER BY since_time_period_24h DESC RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW)
ELSE SUM(repurchase_user_cnt)
END AS repurchase_user_cnt
, count(1) pay_user_cnt
, sum(sales) AS sales
FROM (SELECT *
, CASE WHEN since_time_period_24h = 0 AND pay_cnt > 1 THEN 1
WHEN since_time_period_24h = 0 AND pay_cnt <= 1 THEN 0
ELSE 1
END AS repurchase_user_cnt
, MAX(since_time_period_24h) OVER (PARTITION BY country, user_id) as max_since_time_period_24h
FROM
(SELECT tmp0.time_id_
, tmp0.country
, tmp0.since_time_period_24h
, tmp0.user_id
, SUM(tmp0.pay_cnt) AS pay_cnt
, SUM(tmp0.sales) AS sales
FROM
(SELECT DATE_FORMAT(first_pay_datetime_id ,'%Y-%m-01') time_id_
, country
-- , months_since_first_pay_period_day AS since_time_period_day
, months_since_first_pay_period_24h AS since_time_period_24h
, user_id
, COUNT(distinct order_id) AS pay_cnt
, SUM(sales) as sales
FROM tb_base_
-- WHERE DATE_FORMAT(first_pay_datetime_id ,'%Y-%m-01') >= '2023-01-01'
GROUP BY 1,2,3,4) tmp0
GROUP BY tmp0.time_id_
, tmp0.country
, tmp0.since_time_period_24h
, tmp0.user_id
) tmp
) tmp1
GROUP BY time_id_
, country
, since_time_period_24h
)
, tb_base_day AS (
SELECT time_id_
, country
, since_time_period_day
, CASE
WHEN 'acc' = 'normal' THEN SUM(SUM(IF(since_time_period_day = max_since_time_period_day, repurchase_user_cnt, 0))) OVER
(PARTITION BY time_id_, country ORDER BY since_time_period_day DESC RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW)
ELSE SUM(repurchase_user_cnt)
END AS repurchase_user_cnt
, count(1) pay_user_cnt
, sum(sales) AS sales
FROM (SELECT *
, CASE WHEN since_time_period_day = 0 AND pay_cnt > 1 THEN 1
WHEN since_time_period_day = 0 AND pay_cnt <= 1 THEN 0
ELSE 1
END AS repurchase_user_cnt
, MAX(since_time_period_day) OVER (PARTITION BY country, user_id) as max_since_time_period_day
FROM
(SELECT tmp0.time_id_
, tmp0.country
, tmp0.since_time_period_day
, tmp0.user_id
, SUM(tmp0.pay_cnt) AS pay_cnt
, SUM(tmp0.sales) AS sales
FROM
(SELECT DATE_FORMAT(first_pay_datetime_id ,'%Y-%m-01') time_id_
, country
, months_since_first_pay_period_day AS since_time_period_day
-- , months_since_first_pay_period_24h AS since_time_period_24h
, user_id
, COUNT(distinct order_id) AS pay_cnt
, SUM(sales) as sales
FROM tb_base_
GROUP BY 1,2,3,4) tmp0
GROUP BY tmp0.time_id_
, tmp0.country
, tmp0.since_time_period_day
, tmp0.user_id
) tmp
) tmp1
GROUP BY time_id_
, country
, since_time_period_day
)
, cohort_base_24h AS
(SELECT time_id_
, country
, since_time_period_24h
, repurchase_user_cnt
, pay_user_cnt
, sales
, SUM(sales) OVER w AS acc_sales
, FIRST_VALUE(pay_user_cnt) OVER w AS cohort_user_cnt
, COUNT(1) OVER (PARTITION BY country) AS cohort_cnt
FROM tb_base_24h
WINDOW w AS (PARTITION BY time_id_, country ORDER BY since_time_period_24h RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
)
)
, cohort_base_day AS
(SELECT time_id_
, country
, since_time_period_day
, repurchase_user_cnt
, pay_user_cnt
, sales
, SUM(sales) OVER w AS acc_sales
, FIRST_VALUE(pay_user_cnt) OVER w AS cohort_user_cnt
, COUNT(1) OVER (PARTITION BY country) AS cohort_cnt
FROM tb_base_day
WINDOW w AS (PARTITION BY time_id_, country ORDER BY since_time_period_day RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
)
)
SELECT *
, (pay_user_cnt * 100) / cohort_user_cnt AS retention_rate
FROM
(SELECT 1 AS time_id
, country
, since_time_period_24h
, SUM(repurchase_user_cnt) AS repurchase_user_cnt
, SUM(pay_user_cnt) AS pay_user_cnt
, FIRST_VALUE(sum(cohort_user_cnt)) OVER(PARTITION BY country RANGE BETWEEN UNBOUNDED PRECEDING and CURRENT ROW) as cohort_user_cnt
FROM cohort_base_24h
GROUP BY 1
, country
, since_time_period_24h) tmp3
분석의 기준은 굉장히 중요합니다. 어떤 기준으로 분석하느냐에 따라서 의사결정 방향이 달라질 수 있겠죠?
코호트 분석은 시간을 계산해서 집계하는 분석인만큼 시간의 기준을 제대로 설정하는 게 중요합니다.
저도 실제로 분석해 보면서 분석 기준의 중요성을 다시 한번 깨달을 수 있었습니다.
혹시 지금 day 단위로 코호트 활용해 재구매율을 측정하고 계신다면 24시간 단위로 계산해 보시면 어떨까요?
Reference
https://medium.com/@paul.levchuk/how-to-build-user-cohort-properly-b70a74e5e1c8
August 29, 2024
Modern Growth Stack, 모던 그로스 스택으로 디지털 마케팅 솔루션 에어브릿지(Airbridge)와 브레이즈(Braze), 앰플리튜드(Amplitdue) 등을 다루는 AB180이 개최하는 디지털 마케팅 세미나입니다.
https://www.moderngrowthstack.com/speaker
이번 MGS 2024는 'FUTURE OF GROWTH'라는 주제로 2024.07.31 (수) 9시부터 18시까지 서울 코엑스 1층 그랜드볼룸 & 2층 아셈볼룸에서 진행됩니다.
디지털 마케팅 분야에서 MGS만큼 큰 규모로 개최되는 세미나는 3개+ 정도 있습니다.
1. MGS: Modern Growth Stack by AB180
2. The Maxonomy by CJ Maxonomy
3. MAX Summit by 모비데이즈(MOBIDAYS)
2022년에는 맥스서밋에서 발표를 했었고("온택트 시대, 푸드 테크 기업의 新 마케팅 전략"), 2023년에는 The Maxonomy에서 마티니의 발표 자료("마케팅하는데 개발이 왜 문제일까?")를 만들었고 2024년은 MGS에 마티니의 일원으로 참가하는데요.
MGS와 같은 대형 세미나를 가면 보통 한 장소에 홀이 여러 개 (main, sub1, sub2...) 있고 세션이 나눠서 진행됩니다. 관심사에 맞는 세션을 들으러 시간마다 자리를 이동하곤 하고요.
세션은 다양합니다.
인하우스(브랜드나 플랫폼)에서 마케팅 전략 및 실행안에 대한 인사이트를 나눌 때도 있고 솔루션사(Amplitude, Braze, Airbridge 등 PA, CRM, MMP Soltuion)에서 솔루션의 이점에 대해서 말하기도 하고요. 광고 플랫폼이나 대행사, 컨설팅사 등 주제와 연사도 다양하고 그에 따라 내용과 난이도도 다채롭습니다.
2024년 연사진만 슬쩍 봐도 구글(Google), 메타(Meta), X(엑스: 구 트위터 twitter), 커니(Kearny) 등의 광고 플랫폼들과 컨설팅사 및 29CM 등의 인하우스 눈에 띄네요.
디지털 마케팅 분야에서 유명한 AB180, CJ Maxonomy, 모비데이즈가 개최하는 세미나들인 만큼 운영하는 세션의 주제만으로도 트렌드를 파악하기 충분합니다. 오늘은 MGS 2024의 세션을 통해 최근의 마케팅 트렌드가 무엇인지 알아보려고 합니다.
우선 AB180측에서 분류해 둔 키워드는 #글로벌, #애드테크·마테크, #트렌드 #프라이버시 #게임 #제품분석 #AI #MMP #UA #크리에이티브 #풀퍼널마케팅 #CRM #수익화 등입니다.
키워드가 좀 많다 보니, 세션들을 확인하고 좀 더 포괄적으로 공통되는 주제로 분류하자면 아래 4개의 카테고리 정도입니다. 관련 주제에 어떤 세션들이 준비되어 있는지 짚어봅니다.
디지털 마케팅에서 이제 인공지능(AI)이 빠질 수 없겠죠. AI로 마케팅에 들어가던 인풋을 줄여주거나 성과를 개선하거나 데이터를 활용하는 내용 위주인 듯합니다.
이주원 Meta | Head of Marketing Science, Korea
https://ko-kr.facebook.com/business/ads
안재균 Moloco | 한국 지사장
Andy Carvell Phiture | CEO
이수현, Snowflake | 테크 에반젤리스트
Adrien Kwong, Xtend | Chief Commercial Officer
신창섭 X 코리아 | 대표
CRM: Customer Relationship Management 고객관계관리라는 아주 넓은 의미의 단어로 통용되고 있는 CRM 마케팅은 사용자와 닿는 메시지(팝업 배너, 앱푸시, 카카오톡, 문자, 이메일 등) 위주인데요.
퍼포먼스 마케팅보다는 비용 효율적이고(ex. 광고 소재 클릭당비용 보다는 카톡 발송 비용이 더 저렴한 경우), 웹/앱에서 사용자 행동 기반 개인화가 가능해 그로스해킹/그로스마케팅의 방법론으로도 많이 활용됩니다.
고주연, Braze | Area Vice President of Korea
이건희, 마티니 | 팀장
조형구/강하은, 29CM | Growth Marketer
최동훈, Amplitude | Senior Korea Partner Sales Manager
이재철, 마티니 | 팀장, 이형일, BKR | 이사
조경상, NNT | CEO
민병철, PIEDPIXELS | 사업 이사
오담인, 윤정묵, 장소영, 김형준, AB180 & Airbridge | Customer Success Team
애드테크는 Advertisement+Tech, 마테크는 Marketing+Tech로 광고와 마케팅에 있어 기술을 접목한 형태를 말합니다. 웹이나 앱에서의 성과 측정 및 사용자 행동 분석 등에 필요하죠.
정헌재, AB180 & Airbridge | CPO
김형빈, Viva Republica (Toss) | 부문장
✅ Shaping Android’s Privacy Sandbox
Pan Katsukis, Remerge | Co-Founder & CEO
호명규, Amplitude | 한국영업총괄
진겸, 당근 | 팀장
원하윤, Liner | PM
김동훈, 도소희, 현대카드 | Online Marketing
Bob Wang, PubMatic | Country Manager, Greater China & Korea
이승제, 딜라이트룸 | Product Owner, BD Lead
김나은, AB180 & Airbridge | VP of Growth
최동훈, Amplitude | 한국비즈니스총괄
최준호, Braze | Partner Sales Director
이수현, Snowflake | Tech Evangelist
윤가비, Apptweak | 한국 지사장
#글로벌, #애드테크·마테크, #트렌드 #프라이버시 #게임 #제품분석 #AI #MMP #UA #크리에이티브 #풀퍼널마케팅 #CRM #수익화
그로스마케팅, 그로스해킹, 그로스전략은 아직까지도 유효한 트렌드인 듯합니다. 그렇지만 결국 그로스를 이뤄내기 위해서는 조금 더 세부적인 부문의 실행 방안들이 필요합니다.
실행방안 #풀퍼널 #제품분석 #UA #크리에이티브 #CRM #수익화
사용자 여정의 풀퍼널(Full-Funnel)과 제품을 분석했을 때 프로덕트의 상황에 따라 UA(User Acquisitio, 신규 사용자 획득)에 초점을 맞춰야 할 수도 있고, 크리에이티브를 다변화하며 소재 A/B테스트를 운영해야 할 수도 있고, CRM을 통해서 사용자들에게 다음 단계 혹은 리텐션을 유도해야 할 수도 있고, '구매 전환'을 통한 수익화를 최우선으로 해야 할 수도 있습니다.
.
.
.
최근에 작은 브랜드를 운영하시는 대표님을 만나 뵌 적이 있었는데, 정말 열심히 하는 분이었습니다. 주말이면 온갖 웨비나와 세미나를 섭렵하시고 책도 읽고 강의도 들으시더라고요. 마케팅이 아닌 다른 부문에서 한평생 일하시다가 중장년의 나이에 공부를 하다 보니 따라가고 싶어 노력하신다 하셨어요.
이런저런 이야기를 하다가 저는 대표님께, 이제는 그만 듣고 또 공부하고 그냥 해야 할 때라고 말씀드렸습니다. 지금 수능 보고 낮은 점수받기 싫어서 계속 인터넷 강의 듣는 N수생 같다고요.
할 때는 해야 합니다. 다만 남들이 이미 풀어본 문제를 어떻게 푸는지 알고 가면 좋겠죠. 그 방식이 꼭 나에게도 맞을 거라는 보장은 없지만, 그래도 참고하면 방향성을 잡기에는 훨씬 수월하니까요. 그래서 디지털 마케팅 세미나들이 꽤 유용하지 않나 싶습니다.
August 26, 2024
에어브릿지(Airbridge)는 데이터 수집부터 마케팅 성과 분석까지 하나의 대시보드에서 진행하는 마케팅 성과 분석 솔루션(MMP)으로, 라스트 터치 어트리뷰션, 멀티 터치 어트리뷰션, 마케팅 믹스 모델링 등 다양한 방법으로 앱과 웹사이트의 마케팅 성과를 함께 분석할 수 있는 통합 마테크 솔루션입니다.
오늘날 MMP 솔루션은 광고주들에게 필수적으로 사용되고 있습니다. 에어브릿지 역시 그 중 하나로, 별도의 연동 없이 통합된 데이터 분석과 어트리뷰션이 가능한 것이 강점입니다.
에어브릿지의 이벤트 구조는 타 플랫폼에 비해 비교적 복잡하기 때문에 이전에 GA4 및 타 분석 솔루션만을 사용하다 에어브릿지를 처음 접했다면 다소 혼란스러울 수 있습니다. 저 역시 꽤 헤맸던 것 같습니다.
이러한 계기로 에어브릿지 택소노미를 설계할 당시 이벤트 구조를 이해하는 데 실제로 도움이 됐던 자료들과 GA4의 구조를 비교하여 전체적인 구조를 설명드리고자 합니다.
ㅡ
에어브릿지의 이벤트 및 어트리뷰트 호출 코드의 작성 방법은 아래 세 가지 경로를 통해 확인하실 수 있습니다.
1. 에어브릿지 유저 가이드(Airbridge Help Center)
유저 가이드를 통해서도 코드를 작성하는 데에는 문제가 없지만 2번 자료의 코드 구조가 비교적 효율적이므로 가급적 2번 자료를 참고하시는 것을 권장드립니다.
2. AB180 깃허브(Github)
1번 유저 가이드의 코드 예시 보다 더욱 상세한 전체 코드를 확인하실 수 있습니다.
3. 유저 가이드 및 에어브릿지 공식 문서(Data Spec)
에어브릿지에서 제공하는 Event와 Attribute의 목록과 상세 정보들을 확인하실 수 있습니다.
에어브릿지 이벤트 구성 요소에는 카테고리(Event Category), 액션(Event Action), 라벨(Event Label), 밸류(Event Value), 어트리뷰트(Attribute), 트리거(Trigger)가 있습니다.
다소 복잡해 보이지만 조금만 들여다보면 이해하기 쉽습니다.
위 이벤트 구성 요소의 개념들이 조금 생소하신 분들은 GA4의 예시로 보면 이해하기 쉽습니다.
(GA4의 Metrics & Dimension에 대한 기본 개념이 궁금하신 분들은 관련 자료를 참고해 주세요)
- GA4 보고서
- Airbridge 보고서
GA4의 측정기준(Dimensions)이 에어브릿지의 카테고리, 액션, 라벨의 역할을 하고,
측정항목(Metrics)이 에어브릿지의 밸류의 역할을 한다고 비교해 볼 수 있습니다.
예를 들어, 의류를 판매하는 모 기업의 마케팅 담당자가 구매 이벤트 발생 시 아래와 같은 항목들의 데이터를 수집한다고 가정합니다.
Purchase
모두 시맨틱 어트리뷰트로 수집 가능한 항목들이지만 어트리뷰트의 경우 에어브릿지 리포트에서 확인할 수 없기 때문에 CDP와 같은 고객DB에 접근하거나 별도의 솔루션으로 전처리하여 확인해야 합니다. 이런 경우 유용하게 쓰일 수 있는 항목이 액션과 라벨입니다.
만일 자주 사용하는 어트리뷰트 항목을 에어브릿지의 리포트와 대시보드에서 활용하고자 한다면 어트리뷰트 항목을 액션과 라벨에 세팅하여 어트리뷰트에 대한 데이터를 리포트에서도 확인할 수 있습니다.
다시 말해, 1개의 카테고리와 2개의 어트리뷰트(액션, 라벨)에 대한 통계를 에어브릿지의 리포트와 대시보드에서 쉽고 빠르게 확인할 수 있습니다.
아래 이미지는 스탠다드 이벤트 중에서 일정 예약 이벤트(airbridge.subscribe)의 예시입니다. 일정을 예약한 지역은 액션 또는 라벨로 수집할 수 있으며, 시맨틱 어트리뷰트를 활용하면 예약한 ID(scheduleID)와 예약일시(datetime)를 수집할 수 있습니다.
밸류는 에어브릿지 이벤트가 수집한 숫자를 계산에 이용하기 위해서 선택해야 하는 구성요소입니다. 에어브릿지 이벤트의 밸류로 수집된 숫자만 계산에 이용할 수 있습니다. 밸류로 소수점 9자리 이하 숫자까지 수집할 수 있습니다.
예를 들어, 레비뉴 리포트(Revenue Report)에서 판매한 제품의 가격을 더해 전체 판매 가격을 계산하거나 디지털 서비스의 구독료를 전부 합해서 전체 구독료를 확인하기 위해서는 밸류를 반드시 이벤트 구성요소로 사용해야 합니다.
또한, 밸류로 수집된 데이터는 밸류로 수집된 다른 데이터와 계산할 수 있습니다. 액션이나 라벨로 수집된 데이터는 계산에 활용할 수 없습니다. 그러나 이벤트 발생 횟수는 밸류 사용 여부와 상관없이 확인할 수 있습니다.
예시) 구매 완료 이벤트
위 예시와 같이 액션과 라벨, 밸류 모두 숫자로 수집한다고 하더라도 밸류로 수집한 데이터만 계산할 수 있으며, 액션과 라벨로 수집한 데이터는 계산할 수 없습니다. 예시에서는 구매 완료 이벤트의 밸류로 수집한 데이터를 더해서 30,000이라는 수치를 얻을 수 있습니다.
매출 관련 데이터는 속성으로 수집하는 것이 일반적이나, 에어브릿지의 경우에는 Attribute가 아닌 Value로 수집합니다. 즉 밸류에는 보통 구매액이 들어가고, 어트리뷰트에서는 기타 정보들을 수집합니다.
Semantic Attribute로 사용할 수도 있지만, Actuals Report나 Revenue Report에서는 이벤트 밸류에 Semantic Attribute의 isRevenue 값을 True로 설정한 카테고리(이벤트)로부터 발생한 매출액(Value 값)을 기준으로 확인하기 때문에 이는 적절하지 않습니다. (설정 가능한 Revenue 이벤트 수: 최대 5개)
Revenue 이벤트를 설정할 때 한 가지 유의할 점은 Revenue의 구조가 다양한 서비스일 경우(전환 포인트: 포인트 충전, 제품 결제, 광고 충전 포인트 등), Revenue Report에서 확인할 최종 전환 기준 한 가지를 선정하셔야 합니다.
만일 아래와 같이 구매 완료 시 2개의 매출 관련 이벤트가 동시에 호출되고 2개의 이벤트 모두 Revenue 이벤트로 설정한 경우 중복집계가 될 수 있기 때문입니다.
예시)
- 주문 완료 이벤트 발생 시 단위별 이벤트 동시 호출
매출액 집계 기준을 제품 단위로 볼지, 주문서 단위로 볼지 결정하고 결정된 하나의 카테고리(이벤트)에 isRevenue를 세팅해야 중복집계를 방지할 수 있습니다.
따라서 Revenue로 집계할 이벤트와 기타 매출 관련 데이터를 집계해야 하는 이벤트를 별도로 관리하시는 것을 권장드립니다.
각 카테고리(이벤트)에는 다양한 속성 정보가 수집되는데, 플랫폼마다 정의하는 '속성명'이 상이합니다. GA의 경우 Parameter, 에어브릿지의 경우 Attribute로 정의합니다. 이벤트(카테고리)명 역시 GA4의 경우 Event, 에어브릿지의 경우 Standard Event라고 정의합니다. 각 플랫폼별로 기본적으로 제공되는 속성들이 있으며, 에어브릿지의 경우 Data Spec에서 확인이 가능합니다.
Airbridge Event
Airbridge Attribute
따라서 데이터의 수집 구조를 충분히 고려하여 분석 환경을 구축해 놓는 것이 좋습니다.
August 23, 2024
앰플리튜드(Amplitude) Product Analytics, PA라고도 불리는 분석 솔루션 중 하나입니다. 구글에 '앰플리튜드'를 검색했을 시 스폰서(광고) 제외 두 번째 위치에 제 브런치의 글이 나옵니다. 어떻게 했을까요?
https://brunch.co.kr/@marketer-emje/8
상위노출 방법 전에 SEO의 개념을 먼저 훑고 갑니다!
Search Engine Optimization의 약자로, 검색엔진을 최적화한다는 뜻입니다. *검색엔진은 Google, Naver와 같이 '검색'을 통해 정보를 찾아주는 플랫폼이죠.
즉 SEO란 검색엔진에 노출되는 페이지를 최적화하여 상위 노출을 시키고, 특정 키워드를 검색한 사용자들이 상위 노출된 페이지를 보고 클릭하여 사이트에 '무료'로 유입될 수 있도록 하는 것을 말합니다.
사실 SEO 최적화라는 말은 Optimiziation의 뜻이 중복되는 말이지만, '최적화'가 가장 중요한 부분이니 만큼 강조된다고 생각할 수 있습니다.
SERP는 Searh Engine Result Page의 약자로 검색 결과 페이지라는 뜻입니다. 검색엔진에 특정 단어를 검색했을 시 노출되는 결과 페이지를 말합니다. 구글에 'SEO 최적화'를 검색했을 시의 SERP를 예시로 보면
1. 추천 스니펫 영역 2. 개별 사이트/페이지 노출 영역으로 구분되어 있네요. 구글 SERP의 구조 상, 스니펫은 없는 경우도 있고, 광고(sponsor)가 추가되는 경우도 많습니다.
CPC가 O원입니다. 배너 광고나 검색 광고처럼 Click per Cost(클릭당 비용)이 발생하지 않습니다. 즉 SEO 최적화에 의해 상위노출된 페이지로 생기는 트래픽은 '무료'로 발생한다는 것이죠.
이는 마케팅에서 중요한 포인트입니다. 구글 검색광고나 네이버 검색 광고 중 경쟁 강도가 높은 키워드들의 경우 한 번의 클릭에 1, OOO원은 기본이며 비싸게는 1O, OOO원~2O, OOO원의 비용이 듭니다. (단 한 번의 클릭인데요! 심지어 그다음 단계로 전환될 것이라는 보장도 없습니다, 실수로 눌려서 예산은 소진됩니다.)
그런데 SEO 최적화로 상위노출이 되는 페이지들은, 맨 처음 페이지 제작에 들어가는 초기 비용을 제외하면 추가 비용이 들지 않습니다. 꾸준히 새로운 사용자가 유입되고, 트래픽이 발생합니다.
앰플리튜드 관련 글은 4월에 조회수 2,000 > 5월에 조회수 3,000 > 7월에 조회수 4,000을 돌파했습니다.
다른 브런치 글들에 비하면 작게는 4배, 크게는 10배 차이입니다.
물론 미미한 숫자이지만 이렇게 생각하면 꽤 크지 않나요? 이런 자연 유입이 여러 키워드에서 잡힌다면 DAU/MAU에 꽤 유효하게 작용하게 됩니다.
클릭당비용(CPC) 외에 클릭률(CTR)을 본다면, 자연 영역에서 최상위 노출이 될 시 클릭률이 최대 53%에 달한다는 결과가 있었습니다. (*제가 사용자일 때도, 전 스폰서/광고가 걸린 페이지는 거의 안 누르긴 합니다.)
SEO 최적화, 즉 검색엔진에 잘 맞는 페이지로 만들어줘야 상위노출이 잘 잡힙니다. 여기서 SEO 방법론은 몇 가지로 나눌 수 있습니다.
웹사이트 내부에서 SEO를 최적화할 수 있는 요소입니다. 타이틀 태그와 메타 설명(meta description), 헤더 태그(header tag: H1, H2, H3...), 키워드 선정 및 사용, 콘텐츠 품질(이미지 포함), 링크 활용, 로딩 속도, 모바일 친화성 등이 있습니다.
내부에서 관리할 수 있는 영역인 것이지, 내부에서의 요소는 외부에도 고스란히 영향을 미칩니다. 무신사의 디스이즈네버댓 브랜드 페이지를 보면 내부에서 기재해 둔 텍스트가 구글 검색 시 동일하게 노출되는 것을 확인할 수 있습니다.
웹사이트 외부에서 SEO를 최적화할 수 있는 요소입니다. 백링크(back-link), On-page SEO에서는 페이지 내에 링크를 걸었던 것과 반대로 링크가 걸림 '당하는 것'입니다. 검색엔진에서 노출에 있어 선호하는 신뢰도가 높은 사이트 등 다른 사이트에서 자신의 사이트로 연결되는 링크가 있으면 좋습니다. 이외 SNS 등의 소셜 미디어, 인플루언서 등의 활용이 있습니다.
제가 더 주요하게 소개하고자 하는 SEO 최적화 방법론은 콘텐츠 SEO와 테크니컬 SEO로 나눌 수 있습니다.
콘텐츠 SEO에 주요한 요소는 키워드와 콘텐츠, 메타데이터입니다.
키워드 최적화는 프로덕트/서비스와 사용자, 시장, 경쟁사(유사 서비스)에서 사용하는 키워드를 분석하고 활용하는 것이 중요합니다.
a. 프로덕트/서비스에서 사용하는 키워드
b. 사용자가 사용하는 키워드
c. 시장에서 사용하는 키워드
d. 경쟁사가 사용하는 키워드
콘텐츠 최적화는 앞서 키워드 분석을 통해 선정한 주요 키워드 위주로 콘텐츠의 내용을 채우는 것과 콘텐츠의 형식을 구조화하는 것이 중요합니다.
a. 콘텐츠의 내용
b. 콘텐츠의 형식
메타 데이터는 웹 페이지 관련 정보를 제공하여 검색 엔진 및 소셜 미디어 플랫폼 내 페이지의 표시 방식에 영향을 미칩니다.
메타 데이터(메타 태그) 최적화
메타 데이터는 웹 페이지의 정보와 속성을 설명하고 검색 엔진 및 소셜 미디어에서 공유할 때 사용되어, 사용자에게 페이지 내용을 이해시키고 검색 엔진이 페이지를 색인화하는 데 도움을 줍니다.
*HTML 구조는 웹 페이지의 레이아웃과 콘텐츠를 정의하고, 시맨틱 태그는 HTML 구조 내에 의미론적으로 중요한 부분을 강조하며 메타 데이터는 검색엔진과 사용자에게 그 정보를 제공하는 것입니다.
자사몰을 보유하고 있을 때는 위와 같은 요소들을 고려하는 것이 필요합니다. 다만 개인의 페이지일 때는 검색엔진에 따라 유리한 사이트들이 있습니다. 예를 들어 똑같이 글을 쓰는 플랫폼이라고 하더라도, '네이버'에서는 네이버 블로그만이 노출되는 것처럼 '구글'에서는 워드프레스, 티스토리, 브런치 등이 유리합니다.
신경 쓰지 않았습니다. 고려했다면 워드프레스 등으로 블로그를 구축했겠으나... 시간을 아끼고자 했습니다. 대신 구글 상위노출을 목표로는 브런치를, 네이버 상위노출을 목표로는 개인 블로그를 활성화시켰습니다.
신경 많이 썼습니다! 키워드를 찾고, 선정하고, 글감을 목록화했습니다.
약 60장의 페이지에 꾹꾹 눌러 만들었습니다. 성함/이메일/회사의 정보를 입력해 주시면 다운로드하실 수 있어요!
August 21, 2024
지난 편에서는 각 솔루션별 데이터 수집 방법(바로가기)에 대해서 알아보았습니다.
1. Third Party 데이터 수집 자동화
2. 수집된 데이터 전처리하기
3. 시각화하기
이번에는 수집된 데이터를 활용하여 어떻게 전처리 해야 되는지 알아보겠습니다.
각 데이터 셋들은 분석하려는 차원(dimension)을 기준으로 집계(group by)를 통해서 동일한 형태로 전처리한 후 조인 연산을 통해 데이터를 통합하는 과정이라고 생각하시면 됩니다.
마케팅 성과를 분석하기 위해서 필요한 데이터 다음과 같습니다.
Dimension : 날짜(일별), 유입소스(GA4 = utm_source, Appsflyer = Media_source), 캠페인
Metric : 구매수, 매출, 인스톨 수
GA4가 웹, 앱 모두 트래킹을 할 수 있지만 WEB은 GA4, APP은 MMP로 성과를 합쳐서 보실 겁니다.
GA4, Firebase는 앱과 웹 내 고객 행동 분석에 주로 쓰이는 툴이고 MMP 는 광고 성과를 측정하는 툴이니깐요
그러면 이렇게 됩니다.
<GA4 데이터 집계> - WEB
Dimension : 날짜(일별), 세션 소스, 캠페인
Metric : 구매수, 매출
<MMP 데이터 집계> - APP
Dimension : 날짜(일별), Media_source, 캠페인
Metric : 구매수, 매출, 인스톨 수
집계된 두개의 테이블을 UNION 다시 한번 집계를 해줍니다.
이렇게 하면 집계된 웹앱 데이터 통합이 되었습니다. (MMP 데이터 전처리 과정은 생략)
Dimension : 날짜(일별), Media_source, 캠페인
Metric : 구매수, 매출, 인스톨 수
브레이즈 커런츠(braze currents)데이터는 유저 인게이지먼트 데이터입니다.
여기에는 유저별로 어떻게 우리 서비스로 참여를 하고있는지를 기록한 데이터들이 기록되어 있으니 메시지 발송 수단별로 노출, 클릭 성과들이 들어있습니다. 하지만 우리는 성과(구매) 판단은 MMP, GA4로 해야 하므로 서로 다른 데이터들을 어떻게 통합해서 볼지를 알아보겠습니다.
커런츠 데이터는 아래와 같이 구성이 되어있습니다.
위와 같은 데이터를 일자, 메세지 발송 타입, 캠페인 or 캔버스별 발송수, 노출수, 클릭수 데이터를 집계를 하기 위해서는 유니크한 ID를 나타내는 차원 데이터를 만들어 줘야 합니다.
동일한 유저라도 캠페인, 캔버스, 베리에이션 등 다양한 형태로 타겟이 될 수 있으므로, 아래와 같이 유니크한 차원 데이터를 만들기 위해 새로운 아이디를 생성합니다. (해당 아이디는 발송 타입별로 카운트하기 위해 활용됩니다.)
차원의 이름은 원하시는대로 명명하시면 되고 저는 user_id_dispatch_id 이렇게 명명하였습니다.
-- 태블로 계산식
IFNULL([User Id],'') + '-' +
IFNULL([Campaign Id],'') + '-' +
IFNULL([Message Variation Id],'') + '-' +
IFNULL([Canvas Id],'') + '-' +
IFNULL([Canvas Variation Id],'') + '-' +
IFNULL([Canvas Step Message Variation Id],'') + '-' +
IFNULL([Dispatch Id],'')
다음으로 캠페인 단위로 성과를 집계할 예정이기 때문에 캠페인 차원을 만들어줘야 합니다.
왜냐하면 브레이즈에는 캠페인과 캠버스로 나뉘는데 campaign_name 값이 존재하면 canvas_name 이 빈값이고 거꾸로 canvas_name 값이 존재하면 campaign_name이 빈값이기 때문입니다.
-- 태블로 계산식
IFNULL([Campaign Name],[Canvas Name])
{send_type}_click 이런 식으로 차원 이름을 명명하고 아래와 같은 태블로 계산식으로 차원을 만들어줍니다.
이렇게 되면 email_click, push_click, in_app_message_click 이벤트별로 ID(user_id_dispatch_id)를 생성됩니다.
-- 태블로 계산식
{ FIXED [user_id_dispatch_id],[Event Type] : COUNTD(IF CONTAINS([Event Type], 'inappmessage_click') THEN [user_id_dispatch_id] END)}
최초에 S3에 적재된 currents 데이터(avro 파일)를 DW에 적재할 때 파일별 Event 구분을 위해 Event_Type 칼럼을 생성하였습니다. (이전 글을 참고해 주세요)
['users.messages.email.Open.avro',
'users.messages.email.Click.avro',
'users.messages.pushnotification.Send.avro',
'users.messages.inappmessage.Click.avro',
'users.messages.email.Delivery.avro',
'users.messages.pushnotification.Open.avro',
'users.messages.inappmessage.Impression.avro']
-- 태블로 계산식
IF CONTAINS([Event_Type], 'email') then 'email'
elseif CONTAINS([Event_Type], 'push') then 'push'
elseif CONTAINS([Event_Type], 'inappmessage') then 'iam' end
이제 집계를 위한 전처리는 완료되었습니다(세세한 전처리 과정은 생략됨)
이제 위에서 만들었던 차원을 가지고 집계를 합니다.
일자별, send_type, campaign/canvas, device_category 별 오픈, 클릭, 노출, delivery 데이터는 아래와 같이 집계되었습니다.
통합된 GA4 / MMP 데이터와 커런츠 데이터를 통합해야 되는 과정이 또 남았습니다.
어떻게 이 두 데이터를 엮어야 될까요?
조인키를 위에서 집계한 차원 데이터로 잡고 Full Outer Join으로 데이터를 조인합니다.
이유는 특정 날짜에 브레이즈 커런츠 데이터는 존재하는데 성과 데이터(GA4, MMP) 데이터가 존재하지 않는다면 매칭될 수 없으니 누락이 되어버립니다. 거꾸로 성과 데이터(GA4, MMP) 데이터가 존재하는데 브레이즈 커런츠 데이터가 존재하지 않을 경우 누락이 되어버리기 때문입니다.
광고 성과 데이터 전처리하는 예시를 통해 Full Outer JOIN 이 어떻게 데이터를 처리되는지 예시를 통해 잠깐 확인해 보겠습니다
2024년 1월 1일 twitter 채널의 e 캠페인에서 비용이 1000원 소진했습니다. 그런데 GA4, MMP 데이터에는 해당 광고 채널의 캠페인에서 전환이 아예 일어나질 않았습니다. 하지만 비용이 발생했기 때문에 이 데이터를 버릴 수는 없겠죠? 무조건 살려야 됩니다.
거꾸로 광고 데이터에서 비용은 발생하지 않았는데 Attribution Window로 인해 전환이 발생했습니다. 이것도 버릴 수 없겠죠?
이 두 데이터에서 LEFT JOIN 또는 RIGHT JOIN을 수행하게 되면 조인키에 대응하지 않은 데이터는 매칭이 안되어 누락이 되어 버립니다. 이를 방지하기 위해서 INNER, LEFT OUTER, RIGHT OUTER 조인 집합을 생성하는 FULL OUTER JOIN을 수행합니다.
결과를 보면 각 테이블의 모든 데이터들이 출력이 되는 걸 알 수 있습니다.
본론으로 돌아와서!
Full Outer Join을 수행하기 전에 앞서 GA4, MMP 데이터를 합친 후 우리는 CRM 데이터만 필요하기 때문에 CRM 데이터만 필터를 합니다.
이제 Braze Current 데이터와 성과 데이터(GA4, MMP)를 날짜, 유입소스명, 캠페인명을 조인키로 두고 Full Outer Join 을 수행합니다.(분석하고자 하는 차원데이터가 추가로 더 있다면 추가로 필요한 차원도 조인키로 활용하시면 됩니다.)
이와 같은 방식으로 Paid 성과 데이터를 전처리 할 때도 위와 같은 방법으로 수행하면 됩니다.
데이터를 전처리 할 때 중요한 건 분석하고자 하는 결과물을 먼저 그려본 뒤에 결과를 도출하기 위해서 각 테이블을 어떻게 만들어 갈 것인지 생각하면서 만들어가면 됩니다. 실제로 전처리하다 보면 자잘하게 처리해야 되는 부분이 상당히 많습니다.
특히 데이터를 통합하기 위해서는 무엇보다 네이밍 컨벤션이 가장 중요한 점은 강조하지 않을 수 없습니다.
데이터 수집까지 잘했는데 캠페인 네이밍 컨벤션이 서로 다르다?.. 데이터 통합은 불가능합니다..
네이밍 컨벤션은 말 그대로 명명 규칙입니다.
위에서 언급한 대로 우리가 데이터 통합을 위해 차원 데이터를 조인키로 활용한다고 했었는데 캠페인 차원이 MMP, GA4, Braze or 광고 데이터가 모두 다르면 안 되겠죠? 아래와 같이 통일을 시켜야만 데이터를 연결할 수 있습니다.
여기까지 마케팅 데이터 수집부터 전처리 과정까지 알아보았습니다.
다음 글에서는 이 데이터를 활용해서 시각화 하는 방법을 살펴보겠습니다.
August 6, 2024
행사명 : Maritnee 2024 Recap 행사
장소: 서울 서초구 서초대로38길 12 마제스타시티 타워2 12F
일시: 2024년 8월 20일 화요일 오후 3시
대상:
MGS 2024에서 진행했던 마티니 & AB180 & Snowflake의 세션을 한 번에 확인해보세요.
CRM과 그로스 마케팅을 바탕으로 마티니가 직접 경험하고 이끌었던 실제 성공 사례, AB180의 마케터를 위한 SKAN 활용법과 Snowflake의 마케팅 데이터 클라우드로 비즈니스 성장을 가속화하는 방법을 공유합니다.
MGS 2024 현장에서 공유해드린 마케팅 인사이트와 성공 사례에 대해 확인할 수 있는 기회를 놓치지 마세요!
15:00 - 15:15 Martinee Marketing Intelligence 2024 | 이선규 Martinee CEO
15:15 - 15:45 버거킹도 Amplitude를 쓴다고? 어떻게 쓰는데? | 이재철 Martinee Growth Team Lead
15:45 - 16:15 "우리 잘하고 있는건가?": CRM 마케터들이 궁금해하는 고민과 해결방안 | 이건희 Martinee CRM Team Lead
16:15 - 16:25 Break Time
16:25 - 16:55 iOS 마케터를 위한 SKAN 100% 활용하기 | 한예선 Airbridge & AB180 Business Development Manager
16:55 - 17:25 감'이 아닌 '데이터'로 : Snowflake로 데이터 기반 인사이트 발견하기 | 이수현 Snowflake Tech Evangelist
17:25 - 18:00 Networking & QnA
- 자리가 한정되어 있어 별도로 선정 안내를 드릴 예정입니다.
- 주차권 제공 가능하며 리셉션 데스크 문의바랍니다.
- 참석자분들에게 간단한 음식이 제공됩니다.
August 2, 2024
7월 31일, 코엑스 그랜드볼룸 & 아셈볼룸에서 AB180이 주최한 국내 최대 마케팅 컨퍼런스 MGS 2024가 개최되었습니다.
23년에 이어 마티니가 참여한 MGS 2024에서는 CRM 마케팅에서의 고민과 마티니가 경험하며 체득한 해결방안과 인사이트와 더불어 버거킹의 Amplitude 도입부터 세부적인 단계별 과정을 소개드리고 쏘카와 함께 Braze를 활용한 크로스 셀링 전략과 초개인화 CRM 마케팅 성공 사례를 3개의 발표 세션을 통해 공유하는 자리였습니다.
MGS 2024에서 진행했던 마티니 세션들을 살펴볼까요?
마티니 CRM팀은 KFC, 이랜드 폴더, 콘텐츠웨이브, 뮤직카우, 레브잇, 발란, 딜라이트룸 알라미, 오늘의집, 버거킹 등 무수히 많은 국내 유명 기업과 함께 협업하며 Braze를 200% 활용하고 CRM 인사이트를 확장시켜 왔는데요.
지금까지 수많은 CRM 캠페인을 실행하고 경험하고 겪었던 CRM 마케팅에서의 고민들과 그에 따른 마티니만의 해결방안을 CRM팀 리더 건희님이 발표 세션에서 공유해드렸습니다.
개인화
개인화로 어떤 걸 할 수 있어요?
➡️ 개인화의 3단계 Level과 함께 마티니가 실제 적용해본 CRM 사례를 바탕으로 개인화로 가능한 부분을 설명해드렸습니다.
분석
CRM 성과 어떻게 분석하는 것이 좋을까요?
➡️ 증분 분석과 PA 솔루션 활용으로 오로지 마케팅 활동이 만들어준 ‘진짜’ 성과를 찾는 방법을 알려드렸습니다.
연계활용
PA나 MMP랑 연계하면 뭘 할 수 있나요?
➡️ 각 솔루션의 역할과 CRM 솔루션과의 연동 케이스들을 기반으로 PA 및 MMP 솔루션과 연동 활용 시 가능한 점들을 설명드렸습니다.
테스트
모수가 너무 적은데 의미 있을까요?
➡️ 모수 크기 계산과 카이 제곱 검정식을 바탕으로 적절한 모수와 전환율을 확인하는 방법을 공유해드렸습니다.
도입
Braze 도입, 어느 정도 걸려요?
➡️ 도입 시작부터 첫 캠페인 런칭 기준 도입기간과 컨설팅 유무에 따른 비교을 통해 소요 기간을 알려드렸습니다.
기술적 구현
개발 지원을 못 받아서 못 하는게 많아요.
➡️ 개발 의존도를 낮춰주는 Braze의 3가지 강력한 주요 기능을 소개해드리며 개발 지원없이 가능한 CRM을 사례를 통해 설명해드렸습니다.
마티니는 버거킹의 Amplitude 도입부터 사용, 그리고 Braze 연계 활용까지 함께 하였는데요.
온오프라인이 모두 중요한 버거킹의 경우 디지털 플랫폼 활용도가 높기에 Amplitude 도입을 5단계의 체계적인 절차를 바탕으로 진행하였고 그에 따른 각 단계별 키 포인트들을 공유해드렸습니다.
1. Planning
5. Go-Live
활용 단계에서는 구매 횟수별 고객 특성과 구매 시간대별 고객 특성 2가지로 나누어 쿠폰 사용 패턴을 분석한 과정과 AARRR 지표 설계에 따른 세부 기준, 유저 코호트와 같은 지표 분석 과정, 가설 도출부터 A/B 테스트 설계까지 버거킹과 함께한 상세한 내용들을 설명해드렸습니다.
고객 행동 중 구매 시간대에 따라 고객의 특징이 다르게 나타난다는 점을 확인할 수 있었고 얼마나 차이가 있는지 Amplitudfe 코호트 차트 기능을 활용하여 분석하였습니다.
분석한 내용을 바탕으로 Braze에서 약 48개의 코호트 그룹을 나누어 최적 시간대와 메시지 테스트를 진행하여 결과적으로 성과를 개선시킬 수 있었습니다.
쏘카는 기존 카셰어링에서 작년부터 숙박 서비스까지 비즈니스를 확장시키며 마티니와 함께 Braze를 잘 활용하여 체계적인 캠페인 관리 시스템을 구축해왔습니다.
해당 세션에서는 우천 시 서비스 이용이 활발해지지 않는 서비스 특성을 고려한 쏘카만의 캠페인 사례와 숙박 서비스로 범위를 확장하며 각 타겟의 반응을 확인하며 메시지 발송 대비 전환률을 상승시킨 전략들을 확인할 수 있었습니다.
CRM 마케팅에서 개발 지원없이 섬세한 캠페인 전략을 구사하기가 어려울 수 있는데요. 쏘카가 마티니와 함께 개발자 도움 없이 Braze Connected Content 기능을 활용하여 초개인화 메시지를 구현했던 과정도 상세하게 설명해드렸습니다. 기술 구현이 필요한 항목을 점검하고 오픈데이터와 Braze Liquid 및 Connected Content 기능을 활용한 케이스를 공유하며 어떻게 크로스셀링 전략을 성공적으로 이끌었는지 공유해드린 시간이었습니다.
놓치면 후회하는 마티니와 쏘카의 CRM 협업 사례, 8월 13일 Recap 행사에서 확인하실 수 있습니다.
이번 MGS 2024에서는 마티니가 부스를 운영하여 풀스택 마케팅 도입 컨설팅 서비스에 대해 상담 서비스를 제공해드리고 보다 자세하게 설명드릴 수 있도록 하였습니다.
캡슐 뽑기를 통해서 마티니 스티커와 에코백 굿즈를 나눠드렸습니다.
마티니는 세 가지 분야의 전문가들이 모여 유기적으로 협업하며 다양한 문제를 해결하고 있습니다.
버거킹과 쏘카 사례에서 보여드린 것처럼 데이터·프로덕트 분석, KPI 대시보드 설계와 제작, 데이터 파이프라인 활용, CRM 택소노미(Taxonomy) 및 프로모션 설계, MMP 설치와 점검, 퍼포먼스 마케팅 미디어 믹스까지, 각 분야의 전문가들이 모여있는 마티니와 함께 비즈니스 성공을 실현해보세요.
July 29, 2024
쿠키(Cookie)란 사용자가 웹사이트를 방문할 때마다 웹 브라우저를 통해 인터넷 사용자의 컴퓨터나 다른 기기에 설치되는 기록 정보 파일을 뜻합니다. 이는 퍼포먼스 마케팅의 필수도구로써 마케팅 활동의 세부적인 추적, 개인화 및 최적화를 가능하게 했습니다.
퍼포먼스 마케팅에서 구체적인 쿠키의 기능은 다음과 같습니다.
1. 사용자 행동 추적
2. 개인화
3. 리타겟팅
4. A/B 테스트 및 최적화
하지만 데이터 보호 규정을 시작으로 데이터 보호를 강화하기 위한 전세계의 흐름이 있었고, 애플을 시작으로 구글 폭스 등 많은 웹 브라우저 회사들이 쿠키 제공 중단을 선언헀습니다.
쿠기 제공이 중단된다면, 기존의 쿠키를 이용해 진행하던 기능들을 더 이상 진행할 수 없게 됩니다. 그 결과 각 매체의 효율이 감소하고 신규 고객을 획득하는데 필요한 비용이 증가할 것으로 예상됩니다. 구글이 쿠키의 지원 중단 시점을 2025년으로 연기했다고는 하지만, 마케터들은 선택이 아닌 필수로 기존 광고 방식에 변화가 필요한 상황입니다.
쿠키 리스 상황에서 발생하는 여러 문제들에 대비하기 위해 진행할 수 있는 여러 방법들이 있습니다. 그 중 고객사에서는 현 상황에서 다양한 매체를 활용하기보다 최고의 효율을 낼 수 있는 매체를 선별해서 효율이 좋은 매체에 집중하고자 합니다. 이를 위해 각 광고매체의 성과를 실시간으로 모니터링할 수 있는 대시보드가 필요했습니다.
태블로를 통해 다양한 광고채널에 분산되어 모니터링이 어려웠던 지표들을 태블로를 통해 하나의 대시보드에서 관리함으로써 어느 채널의 어떤 광고가 효율이 좋은지를 빠르게 파악하고, 이를 통해 어떤 채널에 더 예산을 증가하거나 감소해야 할지에 대한 의사결정을 하는데 활용할 수 있습니다.
대시보드를 제작하기 위한 과정은 크게 환경점검, 데이터 수집, 데이터 저장, 데이터 시각화의 4단계로 구분할 수 있습니다.
첫 번째 환경 점검 단계는 대시보드 구축을 위한 대시보드 기획단계입니다. 이 단계에서는 데이터의 출처를 정의하고, 데이터 소스부터 시각화툴인 태블로까지 이어지는 데이터 파이프라인을 그립니다. 최종적으로 대시보드에서 어떤 데이터를 대시보드에 구현하고, 이를 어떤 방식으로 시각화할지에 대한 대시보드 기획단계라고 할 수 있습니다.
해당 광고성과 대시보드를 구현하기 위해서는 광고채널로부터 나오는 광고데이터를 데이터 소스로 정의하고, 이를 통합하는 과정이 필요합니다. 이를 위한 첫 번째 단계로 Meta, Google Ads등 여러 광고 채널에서 나온 데이터를 ETL툴인 Funnel io에서 통합합니다. 이후 MMP인 에어브릿지의 데이터를 통합해 이를 하나의 구글 스프레드시트 적재합니다. 최종적으로 태블로를 통해 시각화하는 방식으로 데이터 파이프라인을 구현했습니다.
해당 스텝으로 데이터 파이프라인을 구현했을 때의 장점은 어디서부터 데이터가 들어오게 되고, 문제가 발생했을 때 문제 발생원인을 직관적으로 확인가능하다는 점입니다.
두 번째 데이터 수집 단계는 실질적으로 필요한 데이터를 정의하는 단계입니다.
UTM 및 parameter를 기반한 광고성과 추적을 위한 계층 구조인 네이밍 컨벤션(Naming Convention)을 정의하고 이를 통해 광고의 위계질서를 설정합니다. 해당 데이터를 통해 광고성과 데이터 정의하고 수집할 수 있습니다.
네이밍 컨벤션(Naming Convention) 정의를 완료했다면, 이를 토대로 데이터 스키마를 작성해야 합니다. 데이터 스키마란 데이터베이스의 구조와 제약조건에 관해 기술한 것을 뜻합니다. 데이터 이름 및 형태(ex. 숫자/문자)에 대해 정의함으로써 향후 데이터 스키마 하나만 확인해도 어떤 데이터 형태인지 파악할 수 있도록 합니다.
세 번째 데이터 저장 단계는 네이밍 컨벤션(Naming Convention)과 데이터 스키마를 통해 정의한 데이터를 저장하는 단계입니다.
광고성과 확인 시, 데이터의 정확성을 확보하고, 다양한 광고채널의 기여도를 정확하게 측정하기 위해 미디어 데이터 뿐만 아니라 MMP 데이터를 함께 확인해야 합니다. 이를 위해 미디어(메타, 구글애즈,..)와 MMP의 소스를 조인하는 과정이 필요합니다. 이를 위해 키값을 정의하고, 해당 키값을 기준으로 데이터를 조인합니다.
마지막 데이터 시각화 단계는 정의된 데이터를 바탕으로 대시보드를 구현하는 단계입니다.
대시보드 구현에 앞서 퍼포먼스마케터들과 협의를 진행합니다. 실제 최종 대시보드를 사용할 퍼포먼스마케터들과의 논의를 통해 대시보드의 형태 및 기능을 구체화할 수 있습니다.
마지막으로 확정된 기획안을 토대로 태블로를 통해 최종 대시보드를 구현하면 대시보드 제작과정이 마무리됩니다.
July 18, 2024
프로모션 분석은 마케팅 캠페인의 일환으로 진행된 다양한 프로모션 활동들의 효과를 평가하고 측정하는 과정입니다. 이 과정을 통해 기업은 프로모션 활동이 소비자의 구매 결정, 브랜드 인식, 시장 점유율 등에 미치는 영향을 분석할 수 있습니다. 프로모션 분석을 위해 판매 데이터, 소비자 행동 데이터, 온라인 트래픽 데이터 등 다양한 데이터 소스를 활용할 수 있습니다.
프로모션 분석은 기업이 자원을 효율적으로 배분하고, 마케팅 목표를 달성하기 위해 필수적인 과정입니다. 이를 통해 기업은 다음과 같은 이점을 얻을 수 있습니다.
개별 프로모션 분석과 통합 프로모션 분석을 함께 수행함으로써, 보다 정교하고 효과적인 마케팅 전략을 개발할 수 있으며, 이는 최종적으로 기업의 성장과 수익성 향상에 기여하게 됩니다.
1. 전체적인 마케팅 전략의 효율성 평가
개별 프로모션 분석을 통해 특정 프로모션의 성공 여부를 파악할 수 있지만, 통합 프로모션 분석을 함께 수행하면 여러 프로모션 간의 상호작용과 그 영향을 이해할 수 있습니다. 이는 전체 마케팅 전략의 효율성을 평가하는 데 중요합니다.
2. 다채널 프로모션 전략의 최적화
현대 마케팅은 다양한 채널을 통해 이루어집니다. 개별 프로모션 분석과 통합 분석을 병행함으로써, 각 채널의 성과를 정확히 파악하고, 채널 간 시너지를 극대화하는 전략을 수립할 수 있습니다.
3. 고객 행동의 종합적 이해
고객은 다양한 프로모션에 노출되며, 이러한 노출이 고객의 구매 결정에 복합적으로 작용합니다. 개별 프로모션 분석과 통합 분석을 결합함으로써, 고객 행동의 더 깊은 이해를 도모할 수 있습니다.
4. 마케팅 자원의 효율적 배분
통합 프로모션 분석을 통해 얻은 인사이트는 마케팅 자원의 효율적인 배분을 가능하게 합니다. 각 프로모션의 효과를 개별적으로뿐만 아니라 전체적인 관점에서 평가함으로써, 예산을 더 효과적인 프로모션에 집중할 수 있습니다.
5. 장기적 마케팅 전략 수립
개별 프로모션의 성공은 단기적인 성과에 초점을 맞출 수 있지만, 통합 프로모션 분석은 장기적인 관점에서 마케팅 전략을 수립하는 데 도움을 줍니다. 다양한 프로모션의 장기적인 영향력과 지속 가능성을 평가할 수 있습니다.
6. 경쟁 우위 확보
통합 프로모션 분석을 통해 시장 내 경쟁 상황과 자사의 위치를 종합적으로 이해하고, 경쟁 우위를 확보할 수 있는 전략을 수립할 수 있습니다. 이는 경쟁사 대비 우위를 점하는 데 중요한 역할을 합니다.
고객사에서는 프로모션 분석 진행 시 앰플리튜드를 통한 단일 프로모션 위주의 분석만을 진행했었습니다.
앞서 언급했듯이 단일 프로모션 분석만 진행하게 된다면 결과적으로 장기적인 효과나 전체적인 마케팅 전략과의 연계성이 부족해지는 문제가 있습니다.
이러한 문제를 해결하기위해 프로모션을 통합적으로 확인하는 것에 대한 필요성이 대두되었습니다. 먼저, 통합 프로모션 분석을 위해 1차적으로 앰플리튜드를 통해 얻은 개별 프로모션별 데이터를 스프레드시트에서 취합해 프로모션들끼리 비교하며 인사이트를 도출했습니다.
하지만 시트를 통해 프로모션을 비교 분석하는 것에는 크게 2가지 정도의 한계가 있었습니다.첫째, 프로모션이 진행될 때마다 데이터를 확인하고, 직접 시트에 옮기는 작업을 해야 하기 때문에 자동화가 어렵다는 점입니다.둘째, 시트에 텍스트로만 적혀있다보니 해당 데이터가 무엇을 의미하는지 직관적으로 인지하기가 어렵다는 점입니다.이러한 한계를 극복하기 위해 고안한 것이 전체 프로모션을 한눈에 파악할 수 있는 대시보드를 구현하는 것이었습니다.
대시보드는 태블로(Tableau)를 사용하여 구현했습니다.
태블로는 데이터를 분석하고 시각적으로 표시할 수 있는 비즈니스 인텔리전스(BI)툴입니다. 태블로를 통해 대시보드를 제작했을 때의 장점은 다음과 같습니다.
1. 여러 raw 데이터 통합: 태블로는 스프레드시트, 데이터베이스, 클라우드 서비스 및 빅데이터 플랫폼과 같은 다양한 데이터 원본들을 원활하게 통합됩니다. 이러한 통합을 통해 다양한 소스의 데이터를 연결 가능하게 하여 데이터 사일로를 해결하고 포괄적인 분석을 가능하게 합니다.데이터 사일로(Data Silo*)**란? 서로 분리되어 기업의 다른 부서에서 액세스할 수 없는 데이터 스토리지 및 관리 시스템을 의미하며, 이는 전사관점의 의사결정을 방해하고, 비효율성이 증가시킵니다.
2. 실시간 데이터 시각화: 태블로는 라이브 데이터베이스 및 스트리밍 데이터를 비롯한 다양한 데이터 원본에 연결하여 실시간으로 데이터 업데이트할 수 있습니다. 이 기능을 사용하면 변경되는 데이터를 빠르게 모니터링하고 분석하여 빠른 의사 결정을 위한 시기적절한 통찰력을 제공할 수 있습니다.
3. 다양한 시각화 옵션: 태블로는 막대 차트, 선 차트, 산점도, 지도 등을 포함하여 다양한 시각화 옵션을 제공합니다. 정보를 효과적으로 전달하기 위해 데이터에 가장 적합한 시각화 유형을 선택할 수 있습니다.
4. 대화형 대시보드: Tableau를 사용하면 사용자가 직접 데이터를 탐색하고 상호 작용할 수 있는 고도의 대화형 대시보드를 만들 수 있습니다. 사용자는 세부 정보를 드릴다운하고, 데이터를 필터링하고, 임시 분석을 수행하여 데이터 탐색의 깊이를 향상할 수 있습니다.
통합 프로모션 분석을 위해 정의한 스케치입니다. 해당 스케치는 피그마(Figma)를 통해 작업했습니다. 스케치를 피그마로 제작한 이유는 여러가지가 있는데, 그 중 가장 중요한 이유는 피그마가 다양한 디자인 도구와 기능을 제공하기 때문에 원하는 디자인을 쉽고 효율적으로 제작할 수 있기 때문이었습니다.
스케치 대시보드를 기준으로 필요한 데이터를 정리해보면 데이터는 크게 3가지로 분류할 수 있습니다.
1. 프로모션 데이터
2. 매출 데이터
3. CRM 데이터
프로모션명, 진행일자, 분류, 컨셉 등 프로모션 진행 관련 기본 정보 및 프로모션 관련 아이템 정보가 프로모션 데이터에 해당하며, 각 프로모션에 관련된 실제 결제 정보가 매출 데이터에 해당합니다. 마지막으로 유저들에게 발송된 메시지의 발송일 및 캠페인명, 발송수 등이 CRM 데이터에 해당합니다.
다음으로 앞서 정리한 데이터를 좀 더 구체적으로 정리합니다. 각 항목별 필요한 정보가 정확히 무엇인지, 해당 데이터는 형태로 관리되어야 하는지를 비롯해 각 데이터를 연결하기 위해 어떤 컬럼을 키값으로 사용해야 하는지 등을 파악하여 정리합니다.
이때 테이블 색상에 차이를 두어 각 데이터가 어떤 소스에서 관리되는지 직관적으로 파악할 수 있도록 합니다.
필요 데이터 정의를 완료했다면, 데이터 추출을 위해 해당 데이터에 대해 알맞은 형태로 적재를 요청하는 단계가 필요합니다. 효율적인 작업을 위해 원하는 이벤트 및 세부 항목(*이벤트 프로퍼티, 유저 프로퍼티, 적재형식, 적재기준일, 요청사유 등) 관련 내용을 최대한 상세하게 기입합니다.
원하는 이벤트 및 세부 항목을 작성한 다음에 해당 내용을 정확히 어떤 형태로 적재되기 원하는지를 보여주는 샘플을 함께 작성합니다.
이제 데이터 연결을 진행해야 합니다. 해당 프로젝트에는 구글 스프레드시트, 엑셀 파일, 구글 클라우드(빅쿼리)의 소스가 사용되었습니다. 저는 그 중 ‘구글 클라우드’에 초점을 맞추어 데이터 연결과정에 대해 설명하려고 합니다.
구글 클라우드를 사용한 이유는 무엇일까요? 그 이유는 앰플리튜드(Amplitude)에 있는 매출 데이터를 연결하기 위함입니다. 앰플리튜드는 그 자체로 사용성이 높이며, 매출 데이터를 비롯하여 많은 데이터를 손쉽게 확인할 수 있는 툴입니다.
하지만 지금과 같이 더 많은 내용을 확인하기 위해서는 다른 로데이터와 결합을 해서 데이터를 확인하는 과정이 필요합니다. 이 때, 앰플리튜드에서 태블로로 데이터를 바로 전달할 수는 없습니다.
태블로로 데이터를 전송하기 위해서는 앰플리튜드의 로데이터를 가공하여 알맞은 형태로 테이블을 가공해주는 선행작업이 필요합니다. 앰플리튜드와 연동이 가능할 뿐만아니라 태블로와의 연동도 가능해야 하며 무엇보다 앰플리튜드로부터 전달받은 로데이터를 가공할 수 있는 플랫폼이여야합니다.
이 작업을 수행할 수 있는 플랫폼은 무엇일까요? 저희는 이러한 요건을 모두 고려할 때 해당 작업을 수행하기에 가장 적합한 것이 Google BigQuery라고 판단했고, 이를 활용하기로 했습니다.
앰플리튜드는 기본적으로 빅쿼리로 데이터를 바로 내보내는 기능을 제공합니다. 우선 해당 기능을 활용해 앰플리튜드 데이터를 빅쿼리에 내보내는 작업을 진행했습니다.
해당 방법을 통해 데이터를 받아올 경우, 이벤트 프로퍼티가 분리된 표 형식으로 넘어오는게 아니라 json이라는 괄호 안에 키와 값형태로 구성돼 있는 포맷(*”{”~”}”)으로 데이터가 불러와지는 문제가 발생했습니다.
태블로는 표 형태의 데이터 프레임을 인식하므로, 태블로에 데이터를 연결하기 위해서는 앰플리튜드 로데이터를 전처리하는 과정이 필요했습니다.
해당 데이터를 전처리하기 위해서는 로데이터의 형태를 파악해야 했습니다. 데이터를 확인한 결과, 텍소노미에 따라 로데이터의 구조가 다를 수 있음을 확인했습니다.
구매 이벤트의 경우 아이템 수량이 1개일 경우에는 값으로, 2개 이상일 경우에는 배열로 이벤트 프로퍼티 데이터가 들어오는 구조였습니다.
{"item_brand":"A",
"item_category":"JAJL",
"item_id":"99999",
"item_name":"GARAGEJACKET",
"item_price":"198000",
"order_id":"20240310105120687",
"total_order_items_quantity":1
…}
{"item_brand":["B","C"],
"item_category":["LFOT","반팔 셔츠"],
"item_id":["88888","77777"],
"item_name":["TRAVEL COMB","CUSTOM SHIRT"],
"item_price":[18000,113000],
"total_order_items_quantity":2}
따라서 데이터 전처리를 위해서는 각 케이스별로 다른 전처리과정을 거쳐야했습니다. 아이템 수량이 1개일경우는 JSON의 값을 파싱하는 처리를 하고, 2개 이상일 경우에는 JSON의 배열을 파싱하는 처리를 진행했습니다.
해당 내용을 처리하는 쿼리문 다음과 같습니다. 케이스별로 결과 테이블이 도출되면, 두 테이블을 유니온하여 한 테이블로 합치는 작업을 진행했습니다.
WITH single_item_orders AS (
SELECT event_time, user_id,
JSON_VALUE(event_properties, '$.order_id') AS order_id,
JSON_VALUE(event_properties, '$.item_category') AS item_category,
JSON_VALUE(event_properties, '$.item_brand') AS item_brand,
JSON_VALUE(event_properties, '$.item_name') AS item_name,
JSON_VALUE(event_properties, '$.item_id') AS item_id,
JSON_VALUE(event_properties, '$.item_price') AS item_price
FROM amplitude_test.EVENTS_353961
WHERE event_type='total_items_order_completed'
AND JSON_VALUE(event_properties,'$.total_order_items_quantity')='1'
),
multi_item_orders AS (
SELECT event_time, user_id,
JSON_VALUE(event_properties,'$.order_id') AS order_id,
item.item_category, item.item_brand, item.item_name, item.item_id, item.item_price
FROM amplitude_test.EVENTS_353961,
UNNEST(
ARRAY(
SELECT AS STRUCT
item_category, item_name, item_id, item_price, item_brand
FROM
UNNEST(JSON_VALUE_ARRAY(event_properties,'$.item_id')) AS item_id WITH OFFSET AS pos
JOIN UNNEST(JSON_VALUE_ARRAY(event_properties,'$.item_category')) AS item_category WITH OFFSET AS pos_cat ON pos = pos_cat
JOIN UNNEST(JSON_VALUE_ARRAY(event_properties,'$.item_brand')) AS item_brand WITH OFFSET AS pos_br ON pos = pos_br
JOIN UNNEST(JSON_VALUE_ARRAY(event_properties,'$.item_name')) AS item_name WITH OFFSET AS pos_name ON pos = pos_name
JOIN UNNEST(JSON_VALUE_ARRAY(event_properties,'$.item_price')) AS item_price WITH OFFSET AS pos_price ON pos = pos_price
)
) AS item
WHERE
JSON_VALUE(event_properties,'$.total_order_items_quantity')!='1'
)
-- 아이템 수량= 1인 경우의 결과와 아이템 수량= 2 이상인 경우의 결과를 합치기
SELECT *
FROM single_item_orders
UNION ALL
SELECT *
FROM multi_item_orders;
해당 작업을 완료한 결과는 다음과 같습니다.
UNNEST()함수를 포함한 단계를 거쳐 데이터 전처리를 진행할 경우 JSON을 데이터 프레임 형태, 즉 테이블 형식으로 바꾸는 것은 가능했습니다.
좀 더 직관적으로 UNNEST()함수를 이해하기 위해 예시를 들어보겠습니다. name이라는 컬럼은 값이지만, preferred langauge는 배열일 경우 빅쿼리는 테이블을 왼쪽처럼 인식합니다. 즉 값으로 구성된 행에 배열로 구성된 행을 묶어두는 구조인데요, 이 묶어둔다라는 것을 nest된 상태라고 하고, 값을 배열에 맞춰서 풀어주는 행위를 unnest라고 합니다.
하지만 UNNEST()함수를 사용할 경우 단점이 있었습니다.이 함수는 배열 내 각 요소를 별도의 행으로 확장하는 기능을 제공하기 때문에 비정규화된 데이터나 중첩된 데이터 구조를 다룰 때 필수적입니다. 그러나 비용관리의 관점에서 주의가 필요하다는 단점이 있습니다. UNNEST() 함수는 배열 내의 각 요소를 별도의 행으로 확장하기 때문에 배열에 많은 요소가 포함되어 있을 경우, 결과 데이터 세트의 크기가 급격히 증가할 수 있습니다. 이는 쿼리 처리 시간을 늘리고 처리해야 할 데이터 양이 증가함으로써 비용이 증가하는 원인이 될 수 있으며, 처리한 데이터 양에 따라 비용이 청구되는 빅쿼리에서는 쿼리 비용의 증가로 이어질 수 있습니다.
실제 프로젝트를 진행하면서 해당 쿼리문을 사용해 약 한달 간 매 시간마다 업데이트 되도록 쿼리를 돌려본 데이터 업데이트를 진행한 결과, 총 8GB를 사용해 월 40만원 가량의 비용이 소진되었습니다. 따라서 비용 효율성 측면을 고려해 전처리를 클라우드 SQL구문이 아닌 파이썬 코드로 처리하도록 우회했습니다.
앰플리튜드의 데이터를 빅쿼리로 바로 내보내는 것이 아니라 앰플리튜드 서버를 호출하여 데이터를 받아오는 방식으로, 빅쿼리에서 로우 데이터를 쌓은 후 이를 전처리하는 방식 대신 전처리를 완료한 후 가공된 데이터를 빅쿼리에 쌓는 방식으로 변경했습니다.
즉, 기존 Amplitude → Bigquery → Tableau의 단계에서 데이터 전처리를 위해 Google Cloud Storage를 추가한 Amplitude → Google Cloud Storage → Bigquery → Tableau 단계로 진행됩니다.
이 작업을 위해서는 우선 앰플리튜드와 Google Cloude Storage를 연결하는 작업을 진행해주어야 합니다. 먼저 Cloud Storage에서 고객사 프로젝트 관련 Bucket을 생성합니다.
다음으로 IAM 및 관리자 → 서비스 계정을 클릭하여 새로운 서비스 계정을 생성합니다.
서비스 계정을 생성한 후, 해당 서비스 계정에 해당하는 이메일을 확인합니다.
키 → 키 추가를 클릭하여 키를 생성합니다.
IAM 및 관리자 → 역할을 클릭하여 새로운 역할을 생성합니다. Send Amplitude Event Data to Google Cloud Storage(문서링크)를 참고해서 역할에 다음 5개의 권한을 부여해줍니다.
앞서 생성한 버킷으로 돌아가서 권한을 클릭한 후 액세스 권한 부여를 클릭합니다.
서비스 계정에서 추가한 새로운 계정에 해당하는 이메일을 입력한 후, 역할을 지정해줍니다.이때 역할은 1.저장소 기존 버킷 소유자와 2.역할 만들기를 통해 생성한 역할, 총 2개를 부여해줍니다.
해당 작업까지 완료했으면 앰플리튜드에서 Google Cloude Storage를 연결하는 작업을 진행해주어야 합니다. 앰플리튜드 Data → Destination에서 Google Cloud Storage를 클한 후 GCS로 보낼 데이터를 선택합니다.
서비스 계정 생성에서 생성한 JSON키 파일을 Service Account Key에 업로드 한 후, 하단의 Bucket Name에 구글 GCS에서 생성한 버킷 이름을 입력해줍니다.
해당 과정을 성공적으로 마치면 Google Cloud Storage Bucket에 데이터가 들어옵니다.
연동이 완료되면 다음과 같이 생성됩니다.
앰플리튜드는 export API라는 서비스를 제공하므로 이 API를 호출하여 데이터를 불러올 수 있습니다. 파이썬의 request모듈로 API요청을 보내는 함수를 구현하고, 다음으로 데이터 전처리 모듈은 pandas모듈을 활용하여 JSON 포맷을 테이블 형식의 데이터 프레임으로 전처리했습니다. 1차 시도당시 빅쿼리로 진행했던 조건문을 프로그래밍 언어로 대체한 것입니다. 마지막으로 빅쿼리 클라이언트 라이브러리를 설치하여 전처리한 테이블을 빅쿼리로 업로드하는 함수를 구현했습니다.
내용을 요약하면 다음과 같습니다.
1. 앰플리튜드
2. GCS
3. GCF
ㅤ: 버킷에 객체가 생성될 때마다 객체 데이터를 전처리한 후, 빅쿼리에 로드하는 함수 구현
해당 작업을 완료하면, 최종적으로 빅쿼리에 데이터가 정상적으로 저장되며, 태블로에 연결해서 시각화할 수 있습니다.
통합 프로모션 대시보드이므로 프로모션 간의 비교가 가능하도록 하는 것이 최우선순위 목표였습니다. 하지만 통합 프로모션 대시보드 내에서 개별 프로모션의 성과 및 관련 내용도 바로 파악이 가능하도록 대시보드를 구성하고자 했습니다.
프로모션 리스트 부분에서 프로모션 성과들을 직관적으로 비교해서 확인할 수 있도록 했으며, sales summary내의 각 KPI의 프로모션 평균값을 제공하여 프로모션의 평균값과의 비교가능하게함으로써 프로모션 간의 비교 분석이 가능하도록 대시보드를 구성했습니다. 또한 프로모션 리스트에서 개별 프로모션 클릭 시 해당 프로모션에 해당하는 내용으로 필터링이되어 표현되게함으로써 개별 프로모션의 성과 역시 파악할 수 있도록 대시보드를 구성했습니다.
데이터를 태블로로 넘긴 후 ERP 기준 매출 데이터와 정합성을 확인하는 과정에서 매출액의 약 0.2%의 차이가 발생함을 확인했습니다. 이는 최종 매출액에서 반품 및 교환 비용을 고려하지 못했기 때문에 발생한 결과였습니다.
따라서 앰플리튜드의 반품 및 교환관련 이벤트인 return_completed의 return_paid_shipping(교환 및 환불금액)관련 항목을 추가하여 해당 금액을 반영해줌으로써 데이터 정합성을 맞췄습니다.
해당 대시보드를 사용하는 고객사는 프로모션의 분류를 크게 할인과 쿠폰 2가지로 구분하고 있습니다.
즉, 1차적으로 가격을 낮춰 세일가에 제품을 구매하는 ‘할인’ 프로모션과 쿠폰을 소지하고 있는 고객이 쿠폰을 직접 사용해서 제품을 구매하는 ‘쿠폰’ 프로모션이 존재합니다. 이때 쿠폰 프로모션의 경우 총 매출 관련 항목과 쿠폰 매출 관련 항목으로 구분해서 성과를 확인할 수 있지만, 할인 프로모션의 경우 쿠폰 관련값이 존재하지 않으므로 쿠폰 매출 관련 성과는 확인이 불가능합니다. 따라서 성과를 확인함에 있어서 쿠폰 프로모션의 경우에는 쿠폰 매출 관련 항목을 확인해야 하고, 할인 프로모션의 경우에는 총 매출 관련 항목을 확인해야 합니다.
이를 적용했을 때 Sales Summary를 확인함에 있어서 결제상품수, 결제건수, 구매고객수의 경우 할인 프로모션의 경우에는 총 매출액 관련 항목으로, 쿠폰 프로모션의 경우에는 쿠폰 매출액 관련 항목으로 구분해서 표현해주어야 합니다.
이를 위해 케이스를 나누고, 쿠폰 아이디가 존재할 경우 쿠폰 프로모션으로 판단해서 쿠폰 매출 관련으로 카운트 하고, 쿠폰 아이디가 존재하지 않을 경우 할인 프로모션으로 판단해서 총 매출 관련항목으로 카운트할 수 있도록 계산된 필드를 생성합니다.
SQL
-- 결제상품수 예시
{FIXED [Promotion name1],[Classification],[Coupon Id]:
SUM(IF [Classification]='쿠폰' and ([# COUPON ID_1]= [Coupon Id]
OR [# COUPON ID_2]= [Coupon Id] OR [# COUPON ID_3]= [Coupon Id])
THEN 1
ELSEIF [Classification]='할인' THEN 1
END)}
최종적으로 제작된 통합 프로모션 대시보드는 다음과 같습니다.
대시보드 작동예시를 좀 더 자세히 살펴보면 다음과 같습니다.
1. Promotion List
Promotion List 우측 분류 및 테마 필터를 클릭하여 해당하는 프로모션을 확인할 수 있습니다.
2.Sales(sales summary)
해당 프로모션의 총 매출액, 쿠폰 매출액, 결제 상품수, 결제 건수, 구매고객수 및 각 항목에 해당하는 일평균 액수를 확인할 수 있습니다.
3. Item datail
좌측의 브랜드별, 카테고리별, 상품별 차트를 클릭해 각 항목에 해당하는 상품의 일자별 판매 현황을 확인할 수 있습니다.
우측 막대그래프에 마우스를 오버하면, 각 일자별 총 매출 및 쿠폰 매출, 총 매출 대비 쿠폰 매출 비율을 확인할 수 있습니다.
4. Sale Trend & 5.CRM Info
4. Sale Trend에서 프로모션 기간 동안의 총 매출 및 쿠폰 매출, 해당 기간 동안 CRM이 발송된 날짜에 대한 정보를 확인할 수 있습니다.
5.CRM Info에서 해당 CRM에 대한 세부 정보를 확인할 수 있습니다.
July 17, 2024
업무 시간을 데이터 수집과 데이터 전처리에 시간을 쓰는 마케터와 데이터 수집 자동화된 환경에서 성과 분석과 기획에 더 많은 시간을 쓰는 마케터 누가 더 많이 성장할까요?
답은 알고 계실 거에요. 당연히 성과 분석과 기획에 더 많은 시간을 쏟는 마케터가 장기적으로 많은 성장을 하겠죠
회사 내에서 GA4, MMP(AppsFlyer), Braze를 사용하고 있는데 엑셀로 데이터 수집해서 가공하는 시간을 대부분을 사용하고 있다면.. 하루 빨리 마케팅 데이터 수집 자동화하고 BI 구축을 시도해보세요.
관련 주제는 내용이 많기도 해서 3개로 나눠서 발행할 예정입니다.
이번 편에서는 MMP(AppsFlyer), GA4, Braze 데이터 수집을 자동화 시키는 프로세스를 설명해보려고 합니다.
데이터를 적재하고 시각화까지의 프로세스를 간단하게 도식화하면 아래와 같습니다.
브레이즈 currents 는 유저의 engagement 이벤트의 실시간 데이터 스트림입니다. 이 데이터를 Avro 파일로 제공해서 BI 및 분석 할 수 있게 지원을 해주는 장점이 있습니다. 단점은 가격이..
브레이즈 어드민에서 아래처럼 어떤 데이터를 보낼지 선택해서 어디에 저장할지 S3, Cloud Storage, Azure Blob Storage 중 선택해서 적재를 시작합니다. (가이드 링크)
예를 들어 Amazon S3 적재를 시작하게 되면 아래처럼 이벤트 별로 폴더가 생성되어 분리 적재됩니다.
브레이즈 Currents 는 At-least-once delivery 정책으로 1시간 단위로 데이터를 적재합니다.
각 폴더 안에는 Avro 파일(각 파일의 Schema는 동일한 형태)이 들어 있는데 이 파일 내에는 이벤트를 구분하는 필드가 없습니다.
일단 여기서 필요한 이벤트 데이터들을 지정해서 합쳐야 되는데 여기서 문제가 있습니다.
그래서 파일 안에 어떤 이벤트의 파일인지 지정해줘야 합니다.
아래와 같이 Avro 파일 명을 확인하여 event_type 필드의 key 값을 추가 필요합니다.
앱 데이터를 측정하는 앱스플라이어도 마찬가지로 데일리 리포트를 만드려면 OS별, UA, RT(리타겟팅)별로 csv 파일을 12번 클릭해서 받아 정리해야 되지만 API 를 활용하면 충분히 자동화 할 수 있습니다.
다만 앱스플라이어 데이터를 어떻게 볼지 기준에 대한 합의를 유관 부서와 먼저 하시는 걸 권장드리고 대행사에게도 우리 기준으로 맞춰 달라고 요청을 해야 되겠죠?
이런 기준으로 데이터를 쌓고 있었는데 데이터를 집계하는 기준이 서로 차이가 있다면 .. 다시 작업해야 되는 불상사가 생길 수 있습니다.
이게 무슨 말이냐면 앱스플라이어 Media Source 중 SRN 매체들의 경우 개인정보 보호 이슈로 rawdata에 포함되지 않아서 집약형 데이터를 활용합니다.(가이드 링크)
그래서 SRN 매체를 사용 중이시라면 집약형 데이터를 활용해서 집계를 해야 하는데 집약형 데이터는 LTV 데이터라서 조회 시점마다 Total Revenue 값이 달라집니다. (관련글 보러가기 링크)
1/1 데이터를 1/7일에 조회했을 때랑 1/14일에 조회했을 때의 total revenue가 달라진다는 의미입니다. 이러게 되면 가장 최근에 조회한 일자일 수록 ROAS가 높게 나오겠죠?
또한 skan 리포트도 마찬가지로 SRN 매체 광고를 운영 중에 있다면 해당 리포트도 받아야겠죠? 이것도 마찬가지로 조회시점마다 성과 숫자가 달라질 수 있습니다
앱스플라이어 데이터 자동화 수집을 위해선 크게 3가지 api 가 필요하고 세부적으로는 인스톨과 인앱이벤트 데이터를 가져와야 합니다. (추후에 앱스플라이어 데이터를 전처리하는 방법에 대해서 포스팅 해보겠습니다.)
GA4 빅쿼리는 실무에서 쓰고 있는 조직이 있나 싶을 정도로 .. 사용하기가 좀 꺼려집니다. 원시 데이터라서 데이터 가공의 자유도가 엄청나게 높지만.. 집계를 하는 입장에서는 굉장히 머리 아픕니다. 정합성을 어디다가 맞춰야 되는지..
그래서 광고 데이터 성과를 집계할 때는 특별한 이유가 없다면 GA4 API 데이터를 소싱하는 게 정합성 의심의 여지가 없기 때문에 무조건 낫다고 봅니다.
GA4 데이터를 소싱할 때 진짜 진짜 주의해야 할 점이 바로 샘플링입니다.
샘플링 진짜 …. 데이터량이 많으면 더 심해집니다.
GA4 API 를 14일치만 호출해도 샘플링된 양이 상당합니다.
GA4 Query Explorer 에서도 조회해도 어드민이랑 큰 차이가 있어서 구글 측에 문의를 해보니 여기도 데이터 조회 일자 범위가 넓으면 샘플링이 적용된다고 합니다. 추후에 해당 이슈 해소하겠다고 합니다.
일단 우리는 샘플링 되지 않을 정도의 날짜 범위로 api 를 호출해서 적재를 하는 것이 좋습니다.
이번 편은 마케팅 데이터 수집 자동화에 대해서 알아보았고 다음 편에서는 인사이트 도출을 위한 데이터 전처리 방법에 대해서 알아보겠습니다!
July 16, 2024
GA4 데이터를 빅쿼리로 보내면 뭐든 다 해결될 것 같은 이야기들이 많지만 실상은 그렇지 못합니다. GA4 인터페이스와 차이가 많고 많은 데이터 용량으로 ETL 과정으로 생각보다 리소스가 많이 듭니다. 그럼에도 불구하고 빅쿼리를 쓰는 이유가 뭘까요?
GA4 빅쿼리 데이터를 가공하다보면 어? 뭐지? 하는 현상들이 있는데 대표적인 하나의 케이스를 공유해볼까합니다. 바로! 빅쿼리에 저장되는 GA4 데이터에는 구글 관련 트래픽에 가장 큰 문제가 있다는 것입니다ㅜㅜ
gclid 파라미터(구글 애즈 캠페인으로 들어온 트래픽이라는 의미)가 있는 세션이 시작 되었을 때 빅쿼리는 utm_medium, utm_campaign 파라미터를 (organic)으로 기록해버립니다
다시 말하면 구글 애즈로 들어왔다는 데이터라고 식별은 되지만 캠페인 명이 증발해버리는 현상입니다.
with events as (
select
cast(event_date as date format 'YYYYMMDD') as date,
concat(user_pseudo_id, (select value.int_value from unnest(event_params) where key = 'ga_session_id')) as session_id,
user_pseudo_id,
(select value.int_value from unnest(event_params) where key = 'ga_session_id') as session_start,
if(
(select value.string_value from unnest(event_params) where key in ('campaign_id', 'campaign', 'source', 'medium', 'term', 'content', 'gclid', 'dclid', 'srsltid') and value.string_value is not null limit 1) is not null,
(
select as struct
(select value.string_value from unnest(event_params) where key = 'campaign_id') as manual_campaign_id,
(select value.string_value from unnest(event_params) where key = 'campaign') as manual_campaign_name,
(select value.string_value from unnest(event_params) where key = 'source') as manual_source,
(select value.string_value from unnest(event_params) where key = 'medium') as manual_medium,
(select value.string_value from unnest(event_params) where key = 'term') as manual_term,
(select value.string_value from unnest(event_params) where key = 'content') as manual_content,
(select value.string_value from unnest(event_params) where key = 'gclid') as gclid,
(select value.string_value from unnest(event_params) where key = 'dclid') as dclid,
(select value.string_value from unnest(event_params) where key = 'srsltid') as srsltid
),
null
) as collected_traffic_source,
event_timestamp,
stream_id,
(select value.string_value from unnest(event_params) where key = 'device_category') device_category,
event_name,
ecommerce.purchase_revenue_in_usd as purchase_revenue_in_usd,
case
when event_name = 'purchase'
then 1 else 0 end AS purchase
from
`테이블명`
where
_TABLE_SUFFIX >= '20231001' AND _TABLE_SUFFIX <= '20231001'
and (select value.string_value from unnest(event_params) where key = 'source') = 'google'
)
select * from events
order by session_id
이 현상을 해결하려면 UTM 파라미터를 자동 태깅(gclid)를 대신해서 사용하거나 URL에 커스텀 파라미터를 붙여서 해결할 수 있긴 합니다.
유저 레벨 분석이 아닌 마케팅 성과를 집계하기 위한 목적으로 GA4 데이터를 활용하고자 한다면 Bigquery Export 보다는 Google Analytics Data API 를 활용해서 일별로 내부 DataWarehouse에 저장하는 방식이 더 효율적일 것 같습니다.
참고로 Google Analytics Data API 를 활용한다면 집계된 데이터를 받아오기 때문에 Total Users 와 같은 유니크한 집계값 (Count Distinct)를 해야되는 지표는 제외하고 이벤트 단위의 지표만 활용해야합니다. 이유는 아래와 같습니다.
4명의 유저가 2024-01-01 ~ 2024-01-03 에 방문했습니다.(로우 데이터)
일별 Total User 를 집계해보면
전체 기간의 Total User 를 집계해보면
일별, 기간별 집계 했을 때 유니크 사용자수는 완전히 다릅니다. (DAU, MAU 개념과 동일)일별 테이블을 다 더해서 집계를 해서 사용하시면 쓸모없는 지표가 되어버리기 때문입니다.
그래도 유저레벨 단위로 혹은 GA4 인터페이스에서 처리 못하는 방식의 데이터 가공이 필요하다면 위의 케이스를 반드시 고려해서 빅쿼리를 사용하시는 걸 권장드립니다.
Why your BigQuery results don't (exactly) match with Google Analytics reports (GA4)
July 12, 2024
데이터를 구성하는 형식은 크게 Long format data와 Wide format data로 구분할 수 있습니다.
각 유형 별 특징 및 장단점에 대해 살펴보겠습니다.
Wide Format Data는 각 주제 또는 관찰단위가 단일 행으로 표시되는 구조입니다.
특징:
사용시 장점:
특징:
사용시 장점:
Wide Format 데이터를 태블로에 입력하면 학생Id는 차원에, 점수관련 항목은 측정값으로 구분됩니다.
이를 활용해 하나의 테이블을 생성하기 위해서는 점수관련 항목을 모두 선택해주어야합니다.
반면 Long Format 데이터를 태블로에 입력하면 학생Id와 시험 항목은 차원에, 점수는 측정값으로 구분됩니다. 이를 활용해 하나의 테이블을 생성하기 위해서는 열에 시험 차원을, 행에 학생 Id차원을 올려놓은 후 점수 값을 표에 입력하면 됩니다.
다음은 해당 데이터들을 활용해 그래프를 생성해보겠습니다.
먼저 Wide Format 데이터의 경우 국어시험, 수학시험, 영어시험은 각각 다른 차원에 존재하는 데이터이므로 이를 하나로 합친 차트를 구현하는 것은 불가능합니다.
반면 Long Format 데이터의 경우, 시험이라는 하나의 차원을 기준으로 점수라는 측정값이 적재되어 있기때문에 해당 데이터를 이용해서는 하나의 차트 내에서 3가지 항목을 구분하여 구현할 수 있습니다.
→ 따라서 Tableau를 활용하여 시각화를 구현할 때에는 Long Format형식의 데이터를 사용하는 것이 더욱더 다양한 시각화가 가능합니다.
July 10, 2024
리텐션(Retention)은 고객이나 사용자가 특정 기간 동안 어떤 제품이나 서비스에 계속 관여하거나 이용하는 비율을 말합니다. 즉, 얼마나 많은 사용자가 시간이 지남에 따라 제품이나 서비스를 계속 사용하는지를 나타내는 지표입니다. 높은 리텐션율은 고객 충성도가 높고, 제품이나 서비스에 대한 만족도가 높음을 의미합니다.
리텐션을 지속적으로 측정하고 관리하는 것이 중요한 이유는 여러가지가 있습니다. 리텐션은 단순히 고객이 제품이나 서비스를 계속 사용하는 것을 넘어서 기업의 지속가능성과 직접적으로 연결되는 핵심 지표입니다. 리텐션이 중요한 이유를 좀 더 자세히 살펴보면 다음과 같습니다.
리텐션을 측정하는 기준에는 다양한 방법이 존재합니다. 그 중 Amplitude에서 확인할 수 있는 리텐션의 종류인 ‘N-day Retention’과 ‘Unbounded Retention’에 대해 좀 더 자세히 알아보려고 합니다.
N-day Retention은 사용자가 처음 제품이나 서비스를 이용한 후 특정 일수(N일) 후에도 계속 이용하는지를 측정하는 방법입니다. 예를 들어, 7-day Retention은 사용자가 서비스를 처음 이용한 후 7일째 되는 날에도 서비스를 이용하는 비율을 의미합니다. 해당 리텐션은 초기 사용자 참여, 온보딩, 새로운 기능, 단기 마케팅 캠페인 분석을 위해 사용됩니다.
Unbounded Retention은 특정 기간 동안 사용자가 최소 한 번이라도 제품이나 서비스를 이용했는지를 측정하는 방법입니다. 이 방법은 시간이 지나도 사용자가 이탈하지 않고 계속해서 제품을 사용했는지의 여부만을 고려합니다. 해당 리텐션은 장기적인 참여, 고객 충성도, 반복 구매, 주기적인 콘텐츠 업데이트 분석을 위해 사용됩니다.
리텐션 차트는 시간에 따른 사용자의 이탈 및 유지 패턴을 시각적으로 표현한 그래프입니다. 이 차트는 특정 기간 동안 사용자 그룹의 리텐션율 변화를 보여줍니다. 리텐션 차트를 통해 크게 행 기준 분석과 열 기준 분석을 수행할 수 있습니다.
리텐션 커브는 시간에 따른 리텐션율의 변화를 나타낸 것입니다. 이 커브는 초기 사용자 참여 이후 리텐션율의 감소 패턴을 한눈에 파악할 수 있게 해줍니다.
리텐션 커브는 감소형태에 따라 유형를 크게 3가지로 나눌 수 있습니다.
시간이 지남에 따라 사용자 참여가 감소되는 패턴의 커브입니다. 이는 가장 흔히 보이는 커브의 형태로, 초기참여 이후 사용자의 관심이 감소됨을 의미합니다.
초기 감소 후 리텐션율이 안정적으로 유지되는 패턴의 커브입니다. 이는 사용자들이 제품이나 서비스에 익숙해지고 일정수준의 참여를 계속해서 유지함을 나타냅니다.
리텐션 감소 후 시간이 지남에 따라 다시 증가하는 패턴의 커브입니다. 이는 매우 긍정적인 상황으로, 사용자들이 초기 이탈후 일정시간이 지나 다시 제품이나 서비스에 관심을 가지기 시작함을 의미합니다.
July 4, 2024
태그 설치를 끝낸 후 GA4 대시보드에서 데이터가 잘 수집되는 것을 확인했다면 이제 데이터 시각화 기능인 루커 대시보드와 연동하여 나만의 대시보드를 만들 수 있다.
GA4의 유입 데이터와 내부 데이터를 연동하여 한 화면에서 비즈니스 데이터를 확인할 수 있기 때문에 데이터 기반 인사이트를 용이하게 확인할 수 있다. 내 웹사이트에 어떤 경로로 들어왔는지, 어느 페이지에서 이탈률이 높은지, *스크롤은 몇 % 내리는지, 어느 광고 매체에서 구매 전환 혹은 매출이 많이 일어나는지 한 화면에서 확인이 가능하다.
그리고 루커 대시보드는 gmail 계정만 있으면 관련 담당자와 쉽게 공유할 수 있으므로 타 부서와 긴밀하게 매출과 비즈니스 KPI를 관리할 수 있다는 장점이 있다.
루커 대시보드에서 차트를 구현할 때 연동하는 데이터 세트를 ‘데이터 소스’라고 한다. 데이터 소스는 루커 스튜디오의 커넥터를 클릭하여 쉽게 연동이 가능한데, 루커는 무려 1,000개 이상의 다양한 데이터 소스를 간편하게 연동할 수 있도록 지원하고 있다. (연동 가능한 데이터 소스 종류 확인하기)
만약 내가 기존에 적재하고 있던 구글 시트 보고서의 데이터와 GA4 데이터를 기반으로 대시보드를 만들고자 한다면 구글시트와 GA4 계정을 커넥터에 연결해서 확인할 수 있다.
구글 시트 보고서와 GA4 데이터를 연결해야 하기문에 커넥터에서 ‘Google 애널리틱스’와 Google Sheet를 클릭하여 연동을 시작한다. 구글 시트는 워크시트별로 연동이 가능하고 GA4는 해당 계정에 대해 권한이 있어야 연동이 가능하다. 다만 이때 각 열의 헤더(제목)이 있어야 하고 헤더는 중복되면 안된다.
루커 스튜디오는 ‘보기’모드와 ‘수정’모드가 있다. 보기 모드는 편집자 권한이 없는 사람이 대시보드가 보이는 형태를 확인할 수 있고 편집자 모드가 있을 경우 ‘수정’모드에서 각 차트와 대시보드 스타일에 대한 요소들을 생성 및 수정할 수 있다.
수정 모드에서는 가장 우측 데이터, 속성, 필터 표시줄 이모티콘을 클릭함으로써 각 기능에 대한 툴바를 숨김 처리할 수 있다.
(상단 좌측부터 순서대로 설명)
[✔︎ 가장 많이 쓰는 차트 예시]
(1) 막대그래프 및 열 차트 (링크)
(2) 선 차트 및 콤보 차트 (링크)
(3) 스코어카드 (링크)
1개의 측정항목에 대한 요약 수치를 표시할 수 있다. 전자상거래 대시보드에서는 총매출, 구매 수, 광고소진액, 신규 유저, MAU, DAU에 대한 수치를 증감률과 함께 확인할 수 있다.
(4) 시계열 (링크)
시간의 흐름에 따라 데이터가 어떻게 변화되는지 확인할 수 있다. 전자상거래 대시보드에서는 일별 구매수, 세션별 일별 구매자 수, 일별 광고비 등을 확인할 수 있다.
(5) 원형 차트 (링크)
값 비율 차이가 큰 데이터를 비교할 때 많이 쓰는 차트로 전자상거래 대시보드에서는 광고비 비중, 채널별 비중을 확인할 수 있다.
(6) 트리맵 차트 (링크)
값이 큰 데이터 항목일수록 색상이 진하고 크기가 크게 표시되는 차트로 계층별로 정리하여 비교할 수 있다는 장점이 있다.
(7) 피벗 테이블
루커 시보드에서 데이터를 연결하고 어떤 차트를 구현할 수 있는지 파악이 완료되었다면 실제로 내가 활용할 대시보드의 목차를 기획해야 한다. 대시보드를 이용하는 사용자가 누군지 파악해야 하고 가능하면 사용자 관점에서 보기 편리하도록 대시보드를 구성해야 한다. 즉, 사용자가 무엇을 알고 싶어 하는지를 파악해야 한다.
가장 좋은 방법은 파악한 사용자들과 함께 회의를 통해 목차를 구성하고 아웃라인을 작성하는 것이지만 그것이 어렵다면 목차라도 함께 작성해야 한다. 사용자가 대시보드를 보고 의미를 쉽게 파악하지 못하거나, 알고 싶은 데이터가 대시보드에 반영되어 있지 않다면 지금까지 노력을 기울여 만든 대시보드의 활용성을 떨어지기 때문에 이 부분을 가장 중점적으로 생각해야 한다.
이커머스 서비스에서 가장 기본적으로 파악해야 하는 그래프를 바탕으로 대시보드 목차를 생각해 보면 다음과 같다.
GA4, 루커 스튜디오와 같이 구글 플랫폼을 활용할 때 많이 들어볼 수 있는 측정항목과 측정 기준의 개념을 이해하고 가는 것이 좋다.
Dimensions (측정기준)
Metrics (측정항목)
예를 들어 위 그림처럼 매체별 광고 성과에 대한 피벗 테이블 차트를 구현하고 대시보드에 추가하려고 한다면 어떻게 해야 할까?
피벗 테이블을 추가하고 수식을 걸지 않은 광고비, 노출, 클릭, 구매, 구매금액까지는 데이터 소스에서 추출하여 측정항목을 선택하여 그대로 차트에 넣으면 된다. 단, CPC, CTR, ROAS의 경우 수식 계산이 필요한데 계산된 필드로 만들어서 측정항목으로 추가할 수 있다.
계산된 필드 생성을 클릭하면 필드 생성 창이 뜨는데, 원하는 측정항목 이름으로 필드 이름을 적은 후 수식에 루커 스튜디오 함수 목록을 참고하여 수식을 입력한다.
[✔︎ 많이 쓰는 함수식]
(1) CPC
SUM(광고비) / SUM(클릭수)
(2) CTR
SUM(클릭) / SUM(노출)
(3) ROAS
SUM(구매금액) / SUM(광고비)
(4) CPI
SUM(광고비) / SUM(설치수)
(5) CPA (구매)
SUM(광고비) / SUM(구매이벤트수)
* 루커스튜디오 함수 목록 (링크)
이렇게 맞춤으로 생성한 계산된 필드는 데이터 툴바에서 파란색으로 필드명이 보이게 된다. 대시보드 화면에 추가한 차트를 클릭하여 해당 차트의 측정항목에 필드명을 가져온다.
속성 툴바에서는 설정과 스타일 탭 두 가지가 있는데 설정 탭에서는 차트에 들어가는 측정항목에 대한 추가/삭제, 필터, 정렬을 설정할 수 있고 스타일 툴바에서는 차트 색, 소수점, 글꼴, 데이터 없음 표시 종류 등 디자인과 관련한 항목을 설정할 수 있다.
(1) 소수점 변경하는 방법
(2) 색상 변경하는 방법
(3) 데이터 누락 서식 지정하는 방법
지금까지 루커 대시보드를 구현하는 방법에 대해 데이터 연결부터, 시각화 구성, 루커 대시보드 구현하는 방법까지 설명하였는데 루커 대시보드를 직접 구현해 보는 데 도움이 되었으면 좋겠다. 예시 대시보드를 참고하여 우리 서비스만의 대시보드를 만드는 것도 좋은 연습이 될 것 같다. 실제 우리 데이터를 연결해 보고 다양한 시각화를 시도해 보며 경험을 쌓는 데 좋은 시작이 될 것이라고 믿는다.
*궁금한 점이나 추가적인 도움이 필요하다면 언제든지 문의해 주세요! 여러분의 데이터 시각화 여정에 도움이 되기를 바랍니다. 감사합니다😊
July 3, 2024
본업이 그로스마케터이므로... '그로스마케팅'와 관련된 포스팅을 지속적으로 작성하고 있는데요. 관련 키워드로 '패션마케팅'이 검색량이 높아 무신사, 29CM, W컨셉을 사례로 준비해 보았습니다. (좀 더 알아보니 패션마케팅은 대학교 학과가 있어 입시생들의 검색량이 높은 키워드인 듯은 하네요.)
무신사의 브랜드마케터 채용 공고를 먼저 보겠습니다.
cf. https://brunch.co.kr/@marketer-emje/13
퍼포먼스마케팅에서 배너 광고를 운영할 때 그 소재로 브랜드가 강조될 수 있고, 프로모션이 강조될 수도 있고, 인플루언서가 강조될 수도 있고 메인 콘셉트를 무엇으로 하느냐에 따라서 소재 베리에이션은 다채로울 수 있는데요. 예시와 함께 보겠습니다.
페이스북 광고 라이브러리에서 'WConcept'을 검색했을 때 결과 중 일부를 가져왔는데요.
W컨셉에서 W컨셉 페이지로 랜딩 시키는 것은 당연한데, W컨셉에 입점해있는 '브랜드'들이 광고의 랜딩을 랜딩을 W컨셉으로 보내네요!
소규모 브랜드라면 개별 웹사이트를 관리, 운영하는 것보다 수수료를 감안하더라도 의류 플랫폼(W컨셉 등)에서의 매출을 높이는 것이 더 낫다고 판단했다고 추측할 수 있습니다.
신규 가입과 앱 첫 구매의 내용이 담겼다는 것은 해당 광고의 세팅이 '리타겟팅'이 아닐 것이라 추측할 수 있습니다. 아마 성별만 '남성'으로 지정하고 오픈 타겟으로 열지 않았을까 싶네요. 디타겟팅(=타겟에서 제외하는 것)으로 이미 회원인 분들과 앱이 있는 분들을 타겟에서 제외하고요.
해당 업무는 일반적인 퍼포먼스마케터/그로스마케터가 진행하기보다는 무신사의 예시처럼 '인플루언서 마케터'의 직무가 따로 있는 경우가 많습니다.
인스타그래머라면 피드, 스토리의 이미지/워딩 그리고 유튜버라면 유튜브 구성안과 기획안을 검토하면서 논의를 이어가게 됩니다. 일정, 비용, 스토리라인, 강조되어야 하는 점, 해시태그 등을 이야기하고요.
하단 예시처럼 유상 광고 소재(인스타그램 광고 소재)로 인플루언서의 이미지를 활용하는 경우 추가 협의가 필요합니다.
새로운 회원들을 어느 정도 유치했다면, 그 회원들을 계속해서 유지하는 것이 관건이겠죠. 리텐션(=재방문율/재구매율)이 그 지표가 되는데요. 리텐션의 기본으로 여겨지는 것 중 하나가 멤버십입니다.
W컨셉은 5개의 멤버십 등급을 가지고 있고, 그 기준으로는 누적 구매액과 함께 구매'수량'을 같이 보고 있습니다. 해석해 보자면 딱 한 개의 상품만 샀는데 - 그 상품이 100만 원짜리였다 -라고 했을 때 한 번에 VIP로 가는 것을 방지하기 위함이라고 볼 수 있습니다. 한 번 들어와서 비싼 것 한 개 산 사람보다, 여러 번 들어와서 중고가를 여러 개 산 사람이 더 충성도가 높다고 판단하는 것이겠죠?
29CM의 경우 동일한 워딩에 여러 브랜드X상품 이미지를 활용하기 위해 조금 포괄적인 내용을 광고 워딩으로 썼는데요. 29CM의 아이덴티티 + 매월 멤버십 쿠폰 ~15% 혜택을 강조합니다. 여기엔 신규 회원 가입이나 앱 설치 쿠폰이 없는 것을 보아 신규를 대상으로만 하는 광고가 아님을 알 수 있고요.
무신사스탠다드(무신사의 PB브랜드)의 마케팅 팀장 채용 공고에도 '중요 이벤트와 프로모션 지원을 통해' 라는 워딩을 통해 마케팅과 연계된 프로모션의 중요성을 인지할 수 있습니다.
상품 할인과 쿠폰 할인(상품 쿠폰, 장바구니 쿠폰)의 구분은 커머스에서 혜택을 설계할 때나 손익을 계산할 떄 때 그리고 심지어 프로덕트 애널리틱스에서 이벤트/프로퍼티의 택소노미를 설계할 때도 아주 중요한 요소입니다.
앱 설치 쿠폰 및 가입 혜택 프로모션은 Always-on 올웨이즈온 캠페인에 속하고, 홀리데이 프로모션은 팝업/애드훅 캠페인으로 볼 수 있겠죠? (와 쉽다!)
보통 앱 설치, 가입의 경우 장기적인 관점의 KPI 달성을 위해 진행되는 캠페인으로 일간/주간/월간 성과를 지속적으로 모니터링하고요. 팝업/애드훅 캠페인의 경우 정해진 기간 동안 최대 매출 등의 목표치를 달성하는 것이 중요합니다. (무신사의 무진장세일이 매년 역대급 매출을 갱신한다고 하죠...? 그렇지만 무진장 정도면 이제는 정규 캠페인이라고도 볼 수 있겠네요)
CRM 수단으로는 앱 중심의 서비스인 경우 앱푸시, 카카오톡을 위주로 사용하고 웹의 경우 배너/팝업 또한 CRM의 일환으로 볼 수 있겠습니다. 문자 및 이메일은 조금 더 전통적인 수단이겠죠?
CRM 마케팅은 CRM 마케터 직무로도 많이 채용하지만, 그로스마케터의 수행 업무에 수반되는 경우도 꽤 있습니다. 29CM의 그로스 마케터 채용 공고를 보면 '고객 커뮤니케이션 타겟 / 채널 / 메시지 테스트 및 운영' 이라는 워딩을 볼 수 있는데요. 하단처럼 쪼개서 생각할 수 있고, 결국 CRM 마케팅에 대한 내용이라는 것을 알 수 있습니다.
CRM 마케팅이 최근 뜨는 이유는 개인 정보 보호 트렌드 때문인데요. 과거 퍼포먼스마케팅에서는 정교한 타겟팅을 위해 사용자가 웹 내에서 행동했던 것들을 추적하는 (cookie, 쿠키! 한 번쯤은 지워보셨죠?) 것이 중요했는데 이 쿠키 정보의 제공이 중단되면서 일반적인 퍼포먼스마케팅의 효율이 낮아지며 비용이 높아진 것도 일부 원인이 있고요.
상대적으로 CRM은 이미 보유한 회원 모수를 대상으로 메시지를 보내기에, 신규 사용자를 획득하는 것보다 효율이 높고(=비용이 낮고) 운영에 필요한 실 비용이 메시지 발송 비용 정도로 상대적으로 비용이 낮기 때문도 있습니다. CRM마케팅은 기회가 된다면 다음에 좀 더 자세하게 풀어보도록 할게요!
이렇게 패션 플랫폼의 그로스 마케팅 (ft. 무신사, 29CM, W컨셉)을 광고 소재와 채용 공고, 프로덕트를 통해서 Acquisition과 Retention 위주로 알아봤습니다.
[다른 글 보러 가기]
그로스마케팅과 AARRR 퍼널 분석 (ft. 29CM)
https://brunch.co.kr/@marketer-emje/11
그로스마케팅이란? 콘텐츠도 퍼포먼스도 UIUX개선도!
https://brunch.co.kr/@marketer-emje/10
그로스마케팅과 AARRR:Acquisition 획득
https://brunch.co.kr/@marketer-emje/13
풀스택 마케팅 컨설팅펌 마티니아이오
July 1, 2024
구글 애널리틱스와 앰플리튜드의 기능, 추적 방식, 분석 항목, 의의와 장단점, 담당자를 비교하자면 하단과 같습니다. 해당 내용의 이해를 위해 차근히 퍼포먼스마케터, 그로스마케터의 직무 요건에서부터 왜 애널리틱스가 중요한지(GA든 Amplitude든) 알아보도록 하겠습니다.
마케터로 생각하는 직무는 주로 퍼포먼스 마케터일 것입니다. 퍼포먼스마케터, 소위 퍼포마는 브랜드나 대행사(에이전시)에서 마케팅 전략을 수립하고 미디어믹스를 짜고 (매체 별/광고 상품 별로 얼마나 쓸 건지를 짜는 것) 이후 해당 미디어믹스에 따라 광고를 집행한 후에 광고 성과를 관리합니다.
그렇다면 퍼포마의 채용 공고를 분석해 보겠습니다. 퍼포먼스 마케터의 직무 요건 및 우대 사항에는 Google Analytics와 Amplitude가 꽤 자주 등장합니다. 심지어 데이터 분석가 직무에도 있네요. 왜일까요?
한 건의 전환이 일어나기까지, 한 명의 사용자에게 노출되는 광고는 수도 없이 많습니다. 마케팅을 열심히 할수록 그렇습니다. 사용자가 1) 인스타그램 광고도 볼 거고, 2) 유튜브 콘텐츠를 봤을 수도 있고, 3) 카카오 배너 광고를 봤을 수도 있고, 4) 네이버 검색 광고를 봤을 수도 있습니다. 이렇게 수많은 광고 매체를 거쳐, 한 건의 전환이 일어났을 때 가장 중요한 질문은 무엇일까요?
다수의 광고 매체들은 다 자기가 기여를 했다고 말합니다. 그래서 광고 관리자로만 광고 성과를 보면 과도하게 성과가 집계될 수밖에 없고, 중복 집계될 수밖에 없는 것입니다.
일주일 안에 저 광고 매체들에 다 노출되었던 사용자가 전환을 했다고 가정해 볼까요? 그렇다면 기여 기간은 7일인 것이고 (광고 매체의 성과를 인정해 주는 기간) 노출된 매체는 4개, 그중 유상(Paid) 광고 매체 3개입니다. (유튜브 콘텐츠는 자사의 브랜딩이었다고 하면요.)
그럼 그중 누가 이 전환의 성과를 가져갈까요?
이렇게 광고 성과의 기여값을 보다 정확하게 측정하기 위해서 Attribution Tool(어트리뷰션툴), Analytics(애널리틱스)가 존재합니다. Web Analytics로 가장 유명한 것이 구글 애널리틱스인 것이고요.
글의 초반 앰플리튜드 vs 구글애널리틱스 비교표에서 언급했었죠. 구글 애널리틱스는 이처럼 광고 매체들의 전환값의 기여도를 측정하여 마케팅을 효율화하는 것을 목적으로 많이 활용합니다.
여기서 또 하나 짚어야 할 것이 있습니다. 그 광고, 클릭하면 어디로 가나요? 클릭해서 이동한 페이지에서 보통 전환이 일어날 테니까요.
마케팅 캠페인이 '웹'에 치중되어 있을 때는 구글애널리틱스의 시대였습니다. 그렇지만 '앱'이 뜨기 시작하고 앱마케팅이 활성화되면서 구글애널리틱스 또한 한계에 부딪힙니다.
웹으로 랜딩 된 후 구매라는 전환 행동이 일어날 때 구글 애널리틱스는 Last touch 기여 설정에 의해서, 해당 전환의 성과는 '페이스북'에게 있다고 측정했습니다.
그런데 웹 랜딩 이후 앱 설치가 진행되고 앱에서 구매가 일어나면 어떻게 될까요? 사용자의 흔적을 파악할 수 있던 utm (광고 매체의 소스값)이 유실되며 광고 매체의 성과를 잡지 못하고, organic (자연 유입)으로 측정하게 됩니다.
cf. 여기서 utm의 광고 매체 소스값이란...?
구글에 나이키를 검색하면 '스폰서' 광고로 나이키가 뜹니다. 이걸 클릭하면 url이 이렇게 나옵니다.
https://www.nike.com/kr?utm_source=Google&utm_medium=PS&utm_campaign=365DIGITAL_Google_SA_Keyword_Main_PC&cp=72646825390.... > utm_source=Google이라고 알려줍니다. (소스값) utm_medium=PS라고 알려줍니다. (매체) 이 두 개의 조합을 광고 매체의 소스값이라고 합니다.
그래서 앱 마케팅이 중요해질수록 MMP와 PA의 인지도 또한 높아질 수밖에 없습니다. MMP는 Mobile Measurement Partners로 앱스토어에 SDK를 붙여 앱 설치 성과를 측정해 주는 솔루션을 말하고, PA(Product Analytics)는 이러한 MMP들을 연동하여 앱 설치 성과를 분석할 수 있도록 도와줍니다.
서비스가 Web 위주인 경우 구글애널리틱스만 사용해도 충분합니다. 다만 App 위주인 경우 App 설치 성과를 분석하는 MMP (Appsflyer, Adjust, Airbridge 등)와 Web to App을 추적하고, App 내 사용자 행동을 분석하는 PA(Amplitude, Mixpanel 등)가 필요합니다!
풀스택 마케팅 컨설팅펌 마티니아이오
June 28, 2024
그로스마케팅의 기본은 분석입니다. 분석 툴, 주로 Analytics라고 많이 이야기하죠. Google Analytics가 대표적이고요. 이외 Product Analytics라고 했을 때 Mixpanel(믹스패널), Amplitude(앰플리튜드) 등의 솔루션이 있습니다.
프로덕트 분석은 사용자들이 디지털 프로덕트를 쓰는 방식을 이해해보는 것입니다. 사용자의 행동 데이터를 분석하고, 전환 기회를 파악하고, 사용자의 평생 가치(LTV: Long Time Value)를 높이는 경험을 만들어 사용자를 비즈니스의 핵심으로 만듭니다.
프로덕트 분석을 통해 사용자의 실시간 참여 및 행동 데이터를 추적, 시각화, 분석하여 전체 고객 여정(User Journey)을 최적화할 수 있습니다. 사용자의 라이프사이클 모든 단계를 데이터로 확인하여 디지털 경험을 개선하고, 충성도를 확보하고, 비즈니스 성과로 연결하도록 지원합니다.
(사용자 여정 예시) 광고를 클릭하고 ~ 계정을 생성하고(Onboarding Process라고 함) ~ 가입하고 ~ 기능 A를 경험하고 ~ 모바일로 로그인하고 ~ 첫구매를 하고 ~ 기능 B를 경험하고 ~ 기능 C를 경험하고 ~ 앱푸시를 받고 ~ 구독할 것 같은데 ~ A/B 테스트를 경험하고 ~ 파워 유저가 되고 ~ 남에게 추천하고...
위와 같은 사용자 여정 중에서 하기 질문에 앰플리튜드를 통해서 답할 수 있습니다.
프로덕트 분석이라고 하면 거창해 보이지만 실전은 생각보다 단순합니다. 커머스에서 가장 중요한 지표가 무엇일까요? 바로 매출/주문수/객단가/건단가입니다.
매출=주문수X건단가, 매출=주문자수X객단가 개념으로, 결국 '매출'이 가장 중요한데요.
동일한 매출을 기준으로 주문수가 많아지면 건단가가 낮아지고, 건단가가 높아지면 주문수가 적어집니다. 아주 당연한 얘기지만, 이 내용이 무엇과 연관이 있을까요? 바로 물류비입니다.
건단가가 낮아서 주문수가 많아지면 택배 물량이 많아집니다. 물론 합배송이 가능하냐, 물류 체계가 자체 배송이냐 위탁 배송이냐, 물류 센터가 있느냐 등에 따라 상황은 다를 수 있겠지만 대개 커머스는 주문수와 건단가 중 굳이 택한다면, 건단가를 높이고 주문수를 줄이는 것이 좋습니다. (객단가는 유저수와 객단가를 둘 다 올리는 게 좋고요...ㅎㅎ)
*매출, 주문수, 객단가, 건단가 차트 모두 '주문 완료'/'구매 완료'/'결제 완료' 와 같은 이벤트와 '주문 금액'/'구매 금액'/'결제 금액'을 뜻하는 이벤트 프로퍼티가 필수입니다.
*여기서 이벤트와 프로퍼티는 모두 개별적으로 설정되는 것으로 통용되는 단어가 아님을 참조해주세요.
1. Segmentation by 에서 주문 완료 이벤트를 설정해줍니다.
해당 택소노미에서는 total_items_order_completed 가 주문 완료/결제 완료 이벤트입니다.
그리고 by order_total 이라는 이벤트 프로퍼티를 사용하여 값을 표현해줍니다.
2. ...performed by Any Users는 따로 설정하지 않아도 됩니다. (전체 유저의 매출을 보는 것이고, 특정 유저의 행동을 보고자 하는 것이 아니니까요.)
3. ...measured as 에서 'Properties'를 선택하고 Sum of Property Value를 설정합니다.
4. 일자까지 설정해주면 그래프가 구현됩니다!
5. 그래프 하단에는 데이터 테이블이 표 형식으로도 나오고, 이는 CSV로 다운로드 받을 수 있습니다.
주문수는 쉽습니다! ...measured as Sum of Property Value를 Event Property로 바꿔주면 됩니다.
매출이 구매 이벤트의 금액의 총합이었다면, 주문수는 이벤트가 발생한 수이기 때문입니다.
Event Totals로 바꿨는데 그래프가 조금 이상하죠? order_total이라는 주문금액값이 grouped by 필터로 걸려있어서 그렇습니다. 금액값 별로 어떻게 구성되어져있는지 보여주는 거죠. 해당 필터를 지워주면 됩니다.
객단가는 매출/주문자수입니다. 그러므로 매출=주문완료 이벤트(+order_total 프로퍼티)의 PROPSUM (PropertySUM)/주문완료 이벤트의 유니크(사용자수)로 수식을 만들어서 적용하면 됩니다. 즉 객단가는 PROPSUM/UNIQUES입니다.
객단가의 추이를 과거와 비교할 수도 있습니다. Comparing to date range ending _ 여기서 일자를 설정하여 두 개의 그래프로 구현되도록 할 수 있습니다. 과거 일자와 비교하면 그 시점의 유저가 **[Previous]**로 표시되고, 이후 시점의 유저가 All User로 표시됩니다.
건단가는 매출/주문수입니다. 그러므로 주문완료 이벤트의 속성값, 주문액 평균을 확인하면 됩니다. ...measured as Average of Property Value로 설정해줍니다.
건단가는 주로 프로모션을 진행할 때 부차적으로 확인합니다. 평상시 대비 프로모션 진행 시에 카테고리/브랜드/상품/장바구니 할인 쿠폰이 발급되어 건단가가 낮아지는 경우가 많기 때문입니다.
건단가/객단가는 대개 유사합니다. 다만 예외도 존재합니다. 리셀러가 커머스에 많은 경우, 상품을 대량하는 구매하므로 경우 주문수가 주문자수보다 월등히 많아 건단가는 낮고, 객단가는 높을 수 있습니다.
건단가/객단가는 시즈널리티를 탑니다. 특히 의류 커머스의 경우 S/S에는 반팔 티셔츠가 주가 되기에 객단/건단이 낮아지고, F/W에는 아우터 상품이 메인이 되면서 객단/건단이 높아집니다.
대시보드 한 판에 차트들을 모을 수 있습니다. 매출도, 구매전환율도, 상품수도 여러 필터로 쪼개보면서 프로덕트의 현황을 확인할 수 있습니다.
앰플리튜드 차트로 확인한 데이터들은 구글 스프레드시트로 이전 성과들과 비교하거나, 노션으로 정리하거나, 간단하게는 슬랙으로 정리하여 공유합니다.
그로스마케터가프로모션/쿠폰 분석을 하는 과정 중에 앰플리튜드로 세그먼트 차트 (커머스에 꼭 필요한 매출, 주문수, 건단가, 객단가) 그리는 법을 알아보았습니다! 감사합니다.
풀스택 마케팅 컨설팅펌 마티니아이오
June 26, 2024
그로스해킹은 Growth와 Hacking의 조합, 그로스마케팅은 Growth와 Marketing의 조합으로 두 개념 다 '성장'을 위함이지만 해킹은 어떤 수단을 동원할지 한정짓지 않는 것이고 마케팅은 마케팅 측면에 집중한 것입니다.
AARRR 프레임워크가 왜 중요할까요? 그로스마케팅의 범위가 모든 마케팅을 포괄하는 만큼, 업무의 우선순위를 정해야 하기 때문입니다. 비즈니스의 특성, 규모, 성숙도에 따라 AARRR 중 현재 집중해야하는 단계를 파악하고 그 부분을 활성화하기 위한 마케팅 캠페인을 운영해야 합니다.
(1) A: Acquisition 획득
(2) A: Activation 활성화
(3) R: Retention 유지(리텐션)
(4) R: Revenue 수익화(매출)
(5) R: Referral 추천
▶️ AARRR 프레임워크 관련된 더 자세한 글은 여기서 확인해주세요.
https://brunch.co.kr/@marketer-emje/11
AARRR 프레임워크의 첫번째 약자인 Acquisition(획득)을 알아보겠습니다. 사용자 획득을 위한 마케팅을 UA 마케팅 (User Acquisition Marketing)이라고 자주 부르는데요. UA마케팅에서 사용하는 광고 매체, 성과 분석 툴, KPI(유입, 가입, 앱설치, 첫구매 등)에 따라 봐야하는 지표, 실제 사례 등을 공유해보겠습니다.
잡코리아에 'UA마케팅'을 검색했을 때의 결과페이지입니다. 넷마블, 크래프톤 등 유명 게임 회사가 좀 보이고, 이외 앱 중심의 커머스 회사인 브랜디도 있네요. UA 마케팅이란 단어를 게임 업계에서 많이 쓴다고는 하는데요, UA 마케터라는 포지션명은 잘 쓰지 않기 때문에 UA 마케팅을 하는 퍼포먼스마케터로 생각할 수 있겠습니다.
AARRR의 첫 단어인 만큼 '획득'은 마케팅 초기 단계로, 유저(사용자)가 서비스에 '획득'되게 만드는 것입니다. 여기서 획득은 서비스 내에서 정의하기 나름이지만 단순히 유입(Traffic, 트래픽)이 될 수도 있고 유입 이후의 가입(Signup, 등록/계정 생성) 혹은 앱 설치 (App Install) 혹은 첫구매 (1st Purchase)일 수도 있습니다. KPI가 무엇이냐에 따라 주의 깊게 봐야하는 지표 또한 달라집니다.
사용자를 획득하고자 하는 UA 마케팅에서는 주로 어떤 광고 매체를 활용할까요? 힌트는 UA마케팅을 검색했을 시 나오는 퍼포먼스마케터의 채용 공고에 있습니다!
· 글로벌 UA 매체 Self-serve: Google, Meta 등
Self-serve: 광고 대행사를 통한 운영이 아닌 직접 운영을 말합니다.
· 마케팅 성과 분석 툴 활용 역량 (Singular, Appsflyer, Firebase, Gamesight, GA 등)
MMP(Mobile Measurement Partners)인 싱귤러와 앱스플라이어가 등장하네요.
· 1st Party Data 활용을 통한 광고 <> 내부 성과 분석
1st Party Data란 우리 서비스에 쌓이는 데이터를 기반으로, 자사 내부 데이터라고 할 수 있습니다. 이에 반대되는 개념이 3rd Party Data로 외부 데이터로, 광고 매체들의 데이터들을 예시로 들 수 있습니다.
· 광고 매체: 메타, 구글, 네이버 SA/DA, 카카오 등
DA는 Display Advertisement(Ads)로 배너 광고, SA는 Search Advertisement(Ads)로 검색 광고를 뜻합니다.
· 분석 트래킹 툴 활용 통한 데이터 분석 (Appsflyer, GA 등)
MMP(Mobile Measurement Partners)인 앱스플라이어가 등장하네요.
· User Acquisition - Activation 퍼널 단계에서 KPI 달성
그로스마케팅은 그로스(Growth)를 위해 무엇이든 하기에 AARRR 프레임워크의 모든 단계와 관련된 업무를 하지만 주로 퍼포먼스마케팅은 AARRR 중의 초기 단계인 Acquisition과 Activation 위주의 업무를 합니다.
· 주요 매체 (Google, NAver, Meta, Kakao) Self-Serve
(*Self-serve: 광고 대행사를 통한 운영이 아닌 직접 운영을 말합니다.)
· 3rd + 1st Party 데이터 분석을 통한 UA 성과 관리
1st Party Data란 우리 서비스에 쌓이는 데이터를 기반으로, 자사 내부 데이터라고 할 수 있습니다. 이에 반대되는 개념이 3rd Party Data로 외부 데이터로, 광고 매체들의 데이터들을 예시로 들 수 있습니다.
보통의 광고 매체(3rd Party)에서는 자신의 매체를 기준으로 성과를 측정하기 때문에 내부 데이터(1st Party)와 수치가 맞지 않는 경우가 많습니다.
ex. 사용자가 3일 전 인스타 배너 광고를 보고 클릭해서 유입되었다가 이탈된 후 다시 네이버 검색 광고를 통해 오늘 유입되어 가입한 경우를 생각해봅시다. 기여기간이 7일이라고 할 때, 인스타그램 및 네이버 매체의 광고 관리자에서 해당 가입이 모두 각자의 성과라고 계수할 수 있습니다. 이렇게 되면 광고 관리자에서 확인된(3rd Party) 가입자 수치는 2명이고, 실제 내부 데이터(1st Party)에서는 1명이겠죠?
'지표'는 특정 현상을 나타내는 수치입니다. 쉽게 말하면 클릭률(CTR:Click-Through Rate)), 클릭당비용(CPC:Cost Per Click), CPM(노출당비용), CPI(설치당비용), PV(페이지뷰), CAC(가입당비용).. 이런 것들 인데요. 배너 광고 및 검색 광고의 효율을 판단할 때 지표들을 기준으로 성과가 좋다/나쁘다를 이야기할 수 있습니다.
지표를 AARRR 프레임워크에 맞추어 구분하고 확인할 수도 있습니다.
Acquisition 관련 대표 지표들
액션을 무엇으로 설정해두었느냐에 따라 달라집니다.
보통 유입/트래픽 캠페인은 일회성 모수인 경우가 많아 (즉 사용자가 서비스를 장기적으로 사용하지 않고 유입만 되었다가 이탈하는 경우) 커머스에서는 가입 및 첫구매를 독려하고, 앱의 중요도가 큰 경우는 앱설치까지 유도하는 경우가 많습니다.
그로스해킹과 그로스마케팅 그리고 그로스마케팅에서의 AARRR 프레임워크 개념을 넘어서 이제는 조금 더 구체적으로 Acquisition 단계의 UA마케팅에 대해서 다뤄봤습니다. 광고 매체나 성과 분석 툴의 경우는 다른 단계에서도 크게 달라지지 않지만 그만큼 중요한 내용이기에 계속 이야기하겠습니다!
풀스택 마케팅 컨설팅펌 마티니아이오
June 24, 2024
성장을 위해 가장 필요한 정보는 무엇일까요? 사용자에 관한 것입니다. 누가 어떻게 사용했는지 알아야, 그 사람과 유사한 사람들을 더 불러올 것이고 (=유입) 어떻게 사용했는지 알아야 어디서 이탈했는지를 찾아 그 지점을 개선시킬 수 있을테니까요.
사용자 행동을 데이터로 남기고, 이를 분석하여 서비스 개선의 근거로 삼는 것이죠. 사용자의 행동을 이벤트(Event) 혹은 로그데이터 (Log data)라고 이야기하는데요. 이 로그데이터를 분석할 수 있는 툴/솔루션 중 하나가 앰플리튜드(Amplitude)입니다.
이렇게 PC/Web이든 Mobile/Web이든 App이든, 어떤 플랫폼에서든 사용자가 한 행동을 수집하여 분석할 수 있습니다. 사용자 행동 분석은 그로스해킹, 그로스마케팅의 기본이니까요.
앰플리튜드를 더 잘 사용하기 위해 마티니에서 개최한 앰플리튜드 부트캠프 1기에는 김과외, 당근마켓, 사람인, 잡코리아, 현대홈쇼핑, 비소나이, 타이어픽, CJ올리브영 등의 재직자 분들이 오셨었습니다. 마케터를 지망하는 취준생도, 이제 막 취업한 신입도 아닌 유니콘 스타트업의 연차가 있는 실무자들이 앰플리튜드를 배우기 위해서 모입니다.
앰플리튜드(Amplitude)를 학습하고, 도입하고, 활용하고자 하는 이유는 대다수 유저 분석을 위함입니다. 그렇다면 유저 분석은 어떻게 할 수 있는 것일까요?
좀 더 자세한 정황을 파악할 수 있습니다. '구매'라는 Event에 Event Property로 Brand_name이 추가로 수집되었을 때입니다. 구매수가 실제 증가한 브랜드는 'Nike'이고 'Vans'는 감소했다는 것을 알 수 있습니다. Nike의 반응도가 높으니 재고를 미리 확인해두면 좋겠죠? 현상을 분석하여 이후 상황에 적절한 대응을 취할 수 있습니다.
17일에서 18일의 구매수 증가에 기여한 구매 내역은 meta로 유입된 신규 유저의 Nike 구매입니다. (30건에서 70건으로, 200%이상 증가) organic으로 유입된 기존 유저의 Nike 구매는 이틀 간 동일했고, organic으로 유입된 기존 유저의 Vans 구매는 60건에서 40건으로 감소했네요.
즉 Nike의 구매수가 늘었다라는 분석이, meta 광고에 의해 유입된 신규 유저들의 Nike의 구매수가 늘었다. 라고 훨씬 자세해졌습니다.
구매수 100 > 120, 20%의 증가가 있었다라는 표면적인 확인에서 Nike 브랜드 증가가 일어났다는 조금 더 깊이있는 확인으로 어떤 경로에 의해 어떤 특성을 가진 유저에 의한 구매수 증가였는지까지 분석이 가능해진 것이죠.
분석이 깊이있을수록 전략과 실행방안도 구체성을 가집니다. 메타 광고에 의해 유입된 신규 유저들의 증가세가 확인되었으니, 해당 광고 매체를 활성화시키는 것이 좋겠죠. 어떤 광고 소재가 좋은 효율을 가져왔는지 분석하고 그 소재를 베리에이션하여 (다양한 버젼으로 만들어보는 것) 예산을 증액하여 광고를 운영해자는 실행 방안이 나오기 쉬워집니다.
이벤트와 이벤트 프로퍼티, 유저 프로퍼티 등의 설계가 완료되면 (이를 총칭하여 택소노미, taxonomy를 설계한다고 합니다.) 차트를 구성하여 주요 지표들의 수치를 확인할 수 있습니다.
가입완료(Event:sign_up_completed)수를 나이(User Property:user_age)로 나눠볼 수도 있고요.
(예시) 데이터 분석을 기반한 퍼포먼스마케팅
가입 관련 데이터 분석을 했을 때, 서비스 내의 유입 대비 가입 전환율이 30대가 가장 높다면 퍼포먼스마케팅 광고의 타겟 대상을 30대로 집중해준다면 동일 비용 대비 좀 더 광고 효율이 높아지겠죠?
주문완료(Event:order_completed)수를 유저 상태(User Status: New or not)로 나눠볼 수도 있습니다.
(예시) 데이터 분석을 기반한 CRM마케팅
주문수의 유저 비중을 확인했을 때 절대적으로 기존 유저의 비중이 높기 때문에 두 가지 방안을 생각할 수 있겠는데요.
(1) 비중이 낮은 신규 유저의 구매 활성화를 위해서 신규 유저 타겟으로 추가 쿠폰을 발급하는 프로모션을 운영하고 이를 홍보하는 CRM 마케팅을 진행할 수 있겠습니다.
혹은 (2) 비중이 높은 기존 유저의 구매수를 더 장려하기 위해서 기존 유저들이 선호하는 브랜드의 신상품 런칭 소식을 알려주는 CRM 마케팅을 진행할 수도 있겠고요.
그로스해킹과 그로스마케팅에 쓰여지는 수많은 마테크 솔루션 중 하나일 뿐입니다. 앰플리튜드(Amplitude)는 프로덕트 애널리틱스로 (행동 분석 솔루션) 유용한 것인지, 만능인 것은 아닙니다. 솔루션의 사용이 성장을 보장해주지는 않습니다. 그러나 사용자를 더 잘 이해하는 것은 서비스의 개선 그리고 성장과 직결될 것입니다.
앰플리튜드 부트캠프는 현재 2회차까지 진행되었으며 (1회차 격주 2시간씩 2회 운영) 다음 일자는 24년 1월 정도로 예정되어 있습니다. 마티니의 링크드인이나 인스타그램을 통해 소식을 공유받으실 수 있습니다.
링크드인 https://www.linkedin.com/feed/update/urn:li:activity:7103207584077139968
인스타그램 https://www.instagram.com/martinee_official/
홈페이지 https://martinee.io/
풀스택 마케팅 컨설팅펌 마티니아이오
June 21, 2024
그로스해킹은 말 그대로 성장(Growth)을 위해서 어떤 수단(Hacking)이든 동원하여 문제를 해결한다는 뜻입니다.
즉 그로스마케팅 또한 성장을 위해 하는 모든 마케팅이라 해석할 수 있습니다. 그로스마케팅의 세부 방법으로는 유입을 증가시키는 노출/트래픽 캠페인(퍼포먼스마케팅)이 될 수도 있고, 메인페이지의 배너 클릭률을 높이는 콘텐츠 제안이 될 수도 있고, 장바구니에서 결제 전환율을 높이는 UIUX 개선이 될 수도 있습니다. 이를 위해서는 사용자의 반응을 확인할 수 있는 데이터가 중요합니다.
최근 그로스마케팅의 중요성은 원티드의 채용 직무만 봐도 알 수 있습니다. '그로스'를 검색해보세요!
그로스마케팅을 한다고 할 때, 성장을 위해 어떤 일을 먼저 해야할까요?
대다수의 스타트업에서는 개발팀 인력이 소중합니다. 소위, 개발팀의 인풋이 부족하다고 많이들 이야기합니다. 마케팅팀에서도, 서비스기획팀에서, 디자인팀에서도, 상품팀에서도 개발팀에게 요청을 하기 때문이죠. 그렇다면 개발팀은 이들의 요청 중 누구의 업무를 먼저 해야 할까요?
정답은... 알 수 없습니다. 이 회사의 최우선순위 목표(OKR: Objective and Key Results)를 모르기 때문입니다. 목표를 정하기 위해서 AARRR Framework를 사용할 수 있습니다. AARRR의 단계 중 어느 단계를 목표로 해야할지 대략적으로 정해보는 것이죠. 우리 회사의 OKR이 '매출'이라면 2.의 업무가 우선이 되겠습니다.
마케팅을 할 때에도 이 단계에 맞춰 업무의 우선순위를 정해 일할 수 있습니다. 퍼널(Funnel)이라고도 부르는 이유는 깔대기 형태이기 때문입니다. 초반 사용자들은 많으나 단계를 거치며 사용자들의 이탈이 반복되어 마지막 지점에 남는 사용자는 급격히 적어집니다.
그냥 데려오기만 하는 (=유입시키는, 트래픽을 발생시키는) 것이 있고 데려와서 가입을 시키는 것 (=계정을 생성하는 것)을 포함하기도 합니다.
토스에서 진행하는 머니알림이 '트래픽'을 위한 경우가 많습니다. 토스의 앱푸시를 누르면 토스로 트래픽이 발생하고 (10원) 토스가 유도하는 외부 페이지로 랜딩되면 트래픽이 발생하니까요. (10원!) 이렇게 토스는 한 명의 사용자를 유입시키는 데에 20원이라는 가격을 책정하고 있는 것입니다. (물론 업체에게는 더 많이 받죠!)
29CM에 핸드폰으로 (앱을 깔지 않고) 들어가면 앱설치를 하라는 팝업이 뜹니다. 앱설치를 유도하여 이후 29CM를 더 자주 들어오기를 장려하는 것이죠.
이외 29LIVE 라는 기능을 콘텐츠로 소개하는데요. 이 때 혜택을 위해 '알림 신청'을 하게끔 합니다. 알림 신청을 해두면 앱푸시나 카카오 플러스친구로 메시지를 받게 되어 또 들어오게 되겠죠!
CRM으로 높은 할인율의 프로모션을 홍보하면서 다시 방문해달라고 유도합니다. 토스의 경우 만보기 같은 기능을 통해 사용자가 매일 매일 들어오게끔 하구요.
CRM 외에도 리타겟팅 캠페인은 퍼포먼스마케팅으로도 많이 활용됩니다. 그래서 한 번이라도 들어갔던 웹사이트의 광고가 나에게 계속 계속~~~ 뜨는 것이죠!
커머스라면 구매 전환이겠죠. 최종 목표인 만큼 이전 단계와도 밀접하게 연관되어 있습니다. 활성화(Activation)나 유지(Retention)에서도 방문으로 그치는 것이 아닌 구매 전환까지 일어날 수 있도록 혜택을 촘촘히 설계하는 것이죠.
보유한 쿠폰의 만료일이 얼마 안 남았다고 카카오톡으로 알림을 주는 CRM 캠페인도, 블랙프라이데이라고 인스타 스토리에도 광고가 엄청 뜨는데요. 이런 것이 바로 전환 캠페인이라고 할 수 있겠습니다.
카톡으로 친구에게 상품을 추천하기도 하고, 서비스 내에서 후기 작성을 독려하기도 합니다. 작성된 후기는 아직 상품을 사지 않은 사용자들에게 좋은 추천 콘텐츠가 되기 때문입니다.
위는 사용자 측면에서의 AARRR 프레임워크가 적용되는 상황이었다면, 마케터의 측면에서는 AARRR 관점에서 어떻게 업무해야할까요? 간단하게는 문제 정의와 현황 분석, 측정 지표 이해, 목표 수준 설정 및 개선안 실행으로 AARRR 프레임워크를 활용할 수 있습니다.
단계별 문제를 확인합니다.
핵심 주요 지표를 선정하고 현황을 확인합니다.
측정 지표의 의미를 이해합니다.
목표 수준을 정하고 실험을 통해 개선합니다.
추천을 받고 유입된다면 Referral이 먼저, Acquisition이 후자가 되는 것이고요. 가입하지 않고 비회원으로 상품을 구매한 후에 상품이 마음에 들어 가입을 하고 다른 상품도 차차 둘러본다면, Revenue > Acquisition > Activation의 단계를 밟은 것으로 볼 수도 있습니다.
AARRR 프레임워크를 발표한 Dave McClure도 활성화(Activation)와 유지(Retention) 이후 고객 유치(Acquisition)과 추천(Referral) 마지막으로 수익화(Revenue)의 순서를 추천하기도 했습니다. 회사의 상황에 따라 더 중요한 AARRR 단계가 있을 수 있습니다.
우리 회사는 어떤 단계의 AARRR이 가장 중요할까요? 리텐션은 나날이 감소하는데 획득에만 치중하고 있는 것은 아닐까요?
풀스택 마케팅 컨설팅펌 마티니아이오
June 20, 2024
성장을 위해서 모든 수단을 총 동원하는 그로스 해킹에서 유래된 마케팅 방법론입니다. 성장의 목표는 매출, 앱설치수, 회원수, 리드 확보(B2B) 등이 될 수 있겠죠.
그로스마케팅의 수단은 다양합니다. 전환율 개선을 위해서는 UIUX 개선이 필요할 수도 있고, 사용자의 획득 및 유입을 위해서는 퍼포먼스마케팅이 그로스마케팅의 수단이 될 수도 있습니다.
세부 업무 1. 자사 SNS 관리
세부 업무 2. 장바구니 페이지 UIUX 요소 변경
세부 업무 3. 인스타그램 광고용 소재 기획 및 제작, 세팅 및 효율 관리
퍼포먼스마케팅에 대해 더 알고 싶다면?
https://brunch.co.kr/@marketer-emje/9
즉 정성적 감에 의존하기 보다는 내부 데이터를 분석하여 정량적인 근거를 기반으로 합니다. 일례로 퍼널(Funnel) 분석을 통해 사용자들이 이탈하는 구간을 찾아내고 A/B 테스트를 통해 개선안을 운영하여 수치를 개선시키고 성장을 만들어냅니다.
그로스 스프린트의 일환으로 UIUX 개선안을 적용할 시, 기존 UI와 성과를 비교할 수 있도록 A/B Test를 진행하는 것이 좋습니다. 마티니에서는 세 가지의 방안을 고객사에게 제안했습니다.
방안 1. 전후 비교하기: 1주씩 기존안/개선안 반복하며 2개월 간 운영
기존 장바구니>구매 전환율의 변동 폭이 주간/월간 기준으로도 큰 편임을 감안하였을 시, 기간을 길게 잡고 진행하는 것이 다른 변인을 감안할 수 있을 것으로 예상됩니다. 개발적 공수가 제일 적을 수 있습니다.
방안 2. 내부 개발
동일한 페이지(장바구니페이지/결제페이지)를 분기하여 기존안과 개선안, 두 개로 운영하는 것입니다. (cart_page vs. cart_page_test 및 order_page vs. order_page_test)
방안 3. 외부 tool 사용
Heckle (핵클) 링크
자체 개발보다는 개발 인풋이 적게 들어갈 것이라고 판단되나 SDK 연동은 필요합니다. 노출될 페이지를 개별 제작해야합니다. 핵클은 A/B 테스트 운영 시 필요한 개발 인풋과 분석 환경 인풋을 줄여주는 툴입니다.
메타 광고를 예시로 한다면 매출 증대를 목표로 하는 전환 캠페인에서는 광고 비용과 ROAS 등의 수치를 중요시할 것이고요. 그로스마케팅의 경우 리텐션(재방문율/재구매율)을 개선하고자 했을 때는 재방문수, 재구매수의 절대적인 수치와 전체 방문 중 재방문수의 비중, 전체 구매 중 재구매수의 비중 등 상대적인 수치를 봐야할 것입니다.
Growth Marketing이 '성장'을 위한 마케팅인 만큼 그리고 그 수단으로 여러 업무들과 범위가 겹치는 만큼 혼자서는 하기 어려운 것이 당연합니다.
UIUX 개선의 경우 서비스기획 부문과 겹치고, 퍼포마의 효율화를 위해서는 그 많은 광고 매체들을 커버해야하며, 콘텐츠 마케팅을 위해서 주요 키워드를 찾고 크리에이티브를 짜고, CRM 마케팅을 한다면 메세지를 수신할 타겟 대상을 세분화하고 메시지 구성을 짜고 보내는 시점을 정하고 혜택을 구성하는 등 해야할 일이 끝이 없겠죠.
그로스마케팅 부문에 컨설팅 회사가 존재하는 이유라고 생각합니다. 그로스를 경험한 인력들에게 레버리지를 시킬 수 있으니까요.
풀스택 마케팅 컨설팅펌 마티니아이오
June 19, 2024
소위 퍼포마 라고도 부르는 퍼포먼스마케팅에 대해서 얘기해보려고 합니다. 마케팅이라는 개념이 워낙 넓어서인지 다소 모호하게 느껴질 때가 많은데요.
현직 그로스마케터의 입장에서 퍼포먼스마케팅의 개요와 사례에 대해 최대한 구체적으로 소개해보겠습니다. 퍼포먼스마케터를 준비하시는 취준생 분들 혹은 이미 마케터로 일하는 분들께도 도움이 되었으면 합니다.
마케팅은 모든 곳에 있습니다. 출근 길, 지하철에서 본 스크린도어 광고도 마케팅이고요. 인스타그램 스토리를 넘기다보면 나오는 브랜드의 블랙프라이데이 할인 광고도 마케팅이죠.
거실 방에 틀어져있던 TV에서 본 TV CF도 마케팅, 핸드폰으로 뉴스를 볼 때 옆에따라다니는 이미지들도 마케팅입니다. 엊그제 무심코 온라인 커뮤니티 글에서 읽었던 글이 마케팅일 수도 있을겁니다.
Performance Marketing이란 '성과'에 초점을 맞춘 마케팅입니다. 위에 예시로 들었던 마케팅들 중에서 성과를 명확히 알 수 있는 마케팅은 무엇일까요?
1) 지하철 스크린도어
2) 인스타그램 스토리
3) TV CF
4) 온라인 뉴스 배너 광고
5) 온라인 커뮤니티 글
몇 명에게 보여졌을까요? 그리고 몇 명이 진짜로 '봤을까요?' 그리고 몇 명이 그냥 본 것 외에 (수동적 차원) 다음 행동을 했을까요? (적극적 차원)
1) 스크린도어, 3) TV CF, 5) 커뮤니티 글의 경우 광고 노출 = 광고 조회라고 보기 애매합니다.
1)의 경우는 지나쳤을 뿐 진짜 보지는 않았을 수 있으니까요.
3) 또한 마찬가지입니다. 광고가 틀어져있었을 뿐 시청자는 자리를 비웠을 수도 있고요.
5)의 경우는 글 내에 다음 행동을 유도하는 장치가 있냐 없냐에 따라 달라질 수 있겠네요.
2) 인스타그램 스토리, 4) 뉴스 배너 광고는 광고 노출수, 다음 행동을 유도하는 영역의 클릭수, 이후 전환수와 전환율 등 성과로 볼 수 있는 다양한 수치를 확인할 수 있습니다.
즉 여기서는 2) 인스타그램 스토리와 4) 뉴스 배너 광고를 퍼포먼스마케팅이라고 볼 수 있겠네요.
인스타그램 스토리나 뉴스 배너 광고의 경우 증명할 수 있습니다. 그 브랜드나 상품에 흥미가 생겼을 때, '클릭'하게 되니까요. CTA (Call To Action)이라고 하는 행동 유도 장치 버튼을 통해서요.
커머스를 예시로 들면 유입~가입~첫구매 혹은 유입~재구매를 위한 UA Marketing과 Retargeting Markteting이 있습니다.
1) 배너 광고는 불특정 다수에게 광고 콘텐츠를 노출시키는 것을 것입니다. 물론 대상의 타겟팅을 정교화할 수 있지만 (성별, 연령대 등의 인구통계학적 특징 외에 주요 관심사, 기타 행동) 최근에는 오픈 타겟이라고 하여 다른 조건 없이 광고의 모수로 삼는 경우가 많습니다. (광고 매체들의 머신 러닝이 정교화되어 알아서 타겟팅을 해주기 때문입니다.)
배너 광고 매체로는 페이스북/인스타그램(메타), 구글/유튜브, 네이버, 카카오 등이 있습니다. 페이스북 피드 광고, 인스타그램 스토리 광고, 구글/네이버/카카오의 배너 광고들이 그 예시입니다.
배너 광고는 목표에 따라 중요하게 여기는 지표 또한 달라지는데요. 목표에 따른 캠페인으로는 브랜드 인지도 향상, 유입(=트래픽) 증대를 위한 트래픽 캠페인과 가입/앱설치/매출 증대 등을 위한 전환 캠페인이 있습니다. 주요 지표로는 도달수, 노출수, 노출당비용, 클릭수, 클릭율, 클릭당비용, 전환수, 전환당비용, 전환율 등을 통해 성과를 측정할 수 있습니다.
2) 검색 광고는 배너 광고보다는 고관여자에게 광고 콘텐츠가 노출됩니다. 보통 배너 광고를 통해 상품을 인지하고 이후에 그 상품군이 필요할 때 키워드를 검색하여 구매하기 때문이죠.
즉 검색을 했을 때는 구매 직전일 가능성이 높습니다. 검색을 하는 것 자체가 이미 구매 의도가 있다는 것이니까요. 그러므로 검색 광고는 배너 광고보다 대상 모수는 적고 경쟁도가 치열하여 비용이 높지만, 상대적으로 구매로 이어지는 전환율이 높습니다.
제일 조심해야하는 점은 '숫자'입니다. 가장 중요한 만큼 가장 위험할 수 있는데요. 성과 측정에 초점을 맞추기 때문에 숫자에 현혹되기 쉽기 때문입니다. ROAS: Return On Ad Spend, 광고 수익률 - 가 주요 지표로 여겨지는 만큼 이 숫자'만을' 보게될 때를 주의해야합니다.
여기서 ROAS 1000%의 광고가 무조건 좋은 소재라고 판단할 수 없습니다. 기간과 비용 등 다른 수치들을 함께 봐야죠.
마케팅은 비용을 많이 쓸수록 난이도가 높아지므로 ROAS 수치만으로 판단할 수는 없습니다.
퍼포먼스마케팅과 그로스마케팅의 가장 큰 공통점은 '숫자'로 대변되는 데이터를 근거로 한다는 것입니다. 메타 광고의 매출 증대를 목표 전환 캠페인에서는 광고 비용과 ROAS 등의 수치를 중요시할 것이고요.
그로스마케팅의 경우 리텐션(재방문율/재구매율)을 개선하고자 했을 때는 재방문수, 재구매수의 절대적인 수치와 전체 방문 중 재방문수의 비중, 전체 구매 중 재구매수의 비중 등 상대적인 수치를 봐야할 것입니다.
마케팅을 하는 경우는 크게 인하우스와 대행사(에이전시)로 나뉩니다. 인하우스에서 퍼포먼스마케터로 광고 매체를 직접 운영하거나 (self-serving이라고 많이들 표현합니다.) 대행사와 논의하며 일하는 경우가 있고요. 대행사에서 퍼포마를 한다면 여러 고객사들을 맡아서 다양한 광고매체를 경험할 수 있습니다.
보통 전자(인하우스)에서 퍼포먼스마케터로 일하는 경우 그로스마케터처럼 일하는 상황도 자주 발생합니다. 매출 성장에 필요한 모든 마케팅들을 도맡아서 하다보면 꼭 유상 광고 매체만 운영하는 것이 아닌, 인스타그램도 관리하고, 제휴 마케팅도 진행하고, 프로모션도 관리하고, 자사몰 상세페이지를 기획할 수도 있기 때문이죠.
데이터를 기반으로 한 의사결정과 마케팅을 하기 위해서 데이터 환경이 구축되어 있어야 합니다. 퍼포먼스마케팅에서 주로 다루는 광고 매체들의 성과의 명확한 분석을 위해서는 기여(Attribution)와 접점(Touchpoints)에 대한 결정과 설정이 필요하기 때문입니다.
이를 위해 MMP(Mobile Measurement Partner)인 에어브릿지(Airbridge)나 앱스팔라이어(Appsflyer), 애드저스트(Ajdust)를 활용하는 것이고요. CRM 마케팅과의 연계 캠페인을 운영하기 위해서 브레이즈(Braze)와의 연동을 구현하기도 합니다.
그리고 결국 궁극적인 전환 성과를 판단하기 위해서 DB Data (User Data)를 연동하여 비교하기도 하죠. 데이터 분석의 깊이에 따라 사용자에 대한 이해도가 달라지는 만큼 데이터 파이프라인 구축은 중요합니다.
데이터파이프라인 구축을 지원하는
풀스택 마케팅 컨설팅펌 마티니아이오
June 18, 2024
정답은 둘 다입니다. 기업의 성장을 위해 어떠한 수단이든 동원한다는 해킹(Hacking)의 개념 하에 그로스 마케팅이 속하기 때문입니다. '성장'이라는 말이 모호하게 느껴지지만, 결국 성장은 기업의 수익을 올리는 것이라 볼 수 있습니다. (매출, MAU, 회원수, 앱설치수 등 대다수의 지표가 결국은 수익화를 위함이죠.)
전 지금이야 그로스마케터이지만 그전에는 그냥 마케터였고요. 매출을 올릴 수 있는 모든 활동이 마케팅이라고 생각했고요. 실제로 18년도 글을 보니 다양한 일을 한다고 써뒀네요.
지금 와서 보니 신생 브랜드의 브랜드 마케터라고 볼 수 있겠습니다.
크게는 MD와 콘텐츠 마케터, 그리고 광고 운영도 했으므로 퍼포먼스 마케터의 업무가 섞여있던 것으로...
즉 저는 경험적으로는 그로스마케팅이 성장을 위해 무엇이든 하는 마케팅이라고 생각하는데요! ( MD가 M:뭐든지 D:다한다로 해석된다는 것처럼요.) 신기하게도 그로스마케팅이 뭔지 몰랐어도 열심히 성장에 집착하며 살다 보니 진짜 그로스마케터가 되었습니다.
성장(Growth)과 해킹이 결합된 단어, 그로스 해킹에서 비롯된 마케팅 방법으로서 고객의 반응에 따라 제품 및 서비스를 수정해 나가는 방식으로 시장이 원하는 제품, 고객이 원하는 커뮤니케이션 채널을 찾아가는 것을 의미합니다. 이렇게 나오네요!
https://www.google.com/search?q=그로스마케팅
이외 광고 영역을 살펴보고 그 주체나 설명을 보면, 그로스마케팅과 퍼포먼스마케팅의 연관성도 엿볼 수 있네요.
그로스해킹이라는 개념은 Sean Ellis와 Andrew Chen에 의해 알려졌는데요. 전통적인 비즈니스(e.g. 제조업 등)에서 분리되어 있던 상품팀과 마케팅팀이 디지털 프로덕트(e.g. 페이스북과 같은 서비스)에서는 경계가 모호해졌고 프로덕트의 성장을 위해 이를 따로 구분하지 않은 그로스팀이 탄생합니다. (e.g. 2008년 페이스북의 그로스팀) 페이스북의 그로스팀이 이뤄낸 성과는 따로 다뤄 보도록 하겠습니다.
(참조) 페이스북 그로스팀의 탄생: 10억 명의 사용자를 확보하는 방법
https://gopractice.io/skills/growth_hacking/
위에서 '그로스'의 탄생이 전통적인 비즈니스에서 최근 디지털 프로덕트의 변화에 의한 것이라 언급했는데요. 그 부분을 비즈니스 프로세스로도 설명할 수 있겠습니다. 과거, 사업을 만드는 과정은 일방향에 가까웠습니다. 기획을 한 후, 그에 맞춰 생산을 하고, 판매를 했죠.
하지만 최근에는 선형이라고 보기 어렵습니다. 유통/판매 측면에서는 '크라우드펀딩'처럼 기획을 하고 판매를 한 뒤 수량에 맞춰 생산을 하는 경우도 있고요. 홈페이지에 썸네일을 여러 개 올려 클릭률을 확인한 후 반응이 제일 좋은 것으로 확정하는 것도 선형보다는 원형에 가깝다고 볼 수 있습니다.
예약구매, 클릭, 후기 등으로 소비자들의 피드백을 반영, 개선점을 보완하여 상품을 재생산하거나 서비스를 재배포하며 원형의 프로세스를 구성하죠.
애자일과 스프린트의 개념에 대해서 말하자면 또 하나의 글이 필요하겠지만, 실질적으로 그로스해킹/그로스마케팅 씬에서 해석되는 내용은 가볍고 빠르게 실험 하나 운영해 보자 - 에 가깝습니다. 이 그로스해킹 스프린트는 위의 원형 비즈니스 프로세스와도 매우 유사한데요.
문제를 정의하고 가설을 수립한 뒤 실험을 운영해서 결과를 도출하고 또 그 결과에서 문제를 정의하여... 계속해서 문제에서 개선점을 찾아 실험안을 운영하는 것이 그로스 스프린트입니다. 결국 모든 것은 맞닿아있죠!
개념만 얘기하면 모호하니 사례를 말씀드릴게요. 커머스 쿠폰 마케팅 관련 그로스 스프린트 제안 건인데요.
왼쪽의 앰플리튜드(Amplitude, Product Analytics)를 통해서 매출에 기여하고 있는 쿠폰 현황을 분석하고 오른쪽의 쿠폰을 통해 구매한 유저와 쿠폰 없이도 구매한 유저를 구분하여 재구매율을 확인해 보는 것입니다.
*하단의 예시 중에는 데이터 확인 부분에 속합니다.
제품의 기획-생산-판매 외에 우리에게 더 친숙하고 유명한 서비스들의 사례를 들어볼게요.
위의 그로스해킹의 대표적인 사례 중, 그로스마케팅에 가깝다고 할 수 있는 것이 바로 드롭박스의 '친구추천'입니다. 친구추천 꽤 자주 보고 계시지 않으신가요? '추천'이라는 기능을 활용하기 때문에 바이럴마케팅의 일환으로도 볼 수 있습니다. 마켓컬리에서도 무신사에서도 볼 수 있네요!
위에서 언급했던 스프린트 하나에도 필요한 직군이 5명이 필요합니다.
데이터를 보는 데이터 분석가, 서비스의 개선안을 기획하는 기획자, 이를 디자인해 주는 디자이너, 개발로 구현해 내는 개발자, 개선된 기능을 홍보해 주는 마케터까지... 최소 3개~5개의 직무가 협업하여하는 일이죠.
양승화 님의 그로스해킹 책에서는 그로스해킹을 이처럼 정의합니다.
크로스펑셔널한 직군의 팀원들이 모여서
핵심지표를 중심으로 실험(스프린트)을 통해 배우고
이를 빠르게 반복하며 제품/서비스를 성장(Growth!)시키는 것
그로스매니저/그로스컨설턴트로 재직하면서 양승화 님의 '그로스해킹'책을 정말 인상 깊게 읽었습니다. 이를 PPT 자료로 만들어 회사 내부적으로 공유회를 열기도 했고요. 앞으로 브런치에 책 내용에 회사(마티니)의 업무, 제 개인적인 경험을 녹여서 계속해서 글을 써보도록 할게요!
풀스택 마케팅 컨설팅펌 마티니아이오
June 17, 2024
왜 유니콘 스타트업에서는 앰플리튜드를 쓰는 그로스마케터를 구할까?
웹/앱 서비스 내에서 사용자들의 행동을 분석할 수 있는 프로덕트 애널리틱스(Product Analytics), 서비스 분석 툴입니다.
앰플리튜드는 프로덕트 애널리틱스(Product Analytics)입니다. 단어가 영어일 뿐, 직역하면 서비스 분석 솔루션/툴입니다. 온라인 비즈니스, 서비스, 프로덕트, 마케팅 서비스들을 도와주는 기능들을 솔루션(Solution)/툴(Tool)이라고 많이 지칭합니다. 특히, 마케팅 쪽에서는 마테크 솔루션(Mar-tech Solution), 마테크 툴(Mar-tech Tool)이라고도 하죠.
가장 유명한 마테크 솔루션으로는 구글 애널리틱스(Google Analytics)가 있습니다. 무료인 만큼 대중성이 높고 자사몰이 있는 웹 서비스를 하신다면 들어보셨을 것입니다. 이전에는 앱이 약하다는 단점이 있었지만, 최근 GA4는 앱까지 커버합니다.
GA4가 앱까지 커버한다 해도 아직 앱 분석의 디테일은 앰플리튜드가 강합니다. 즉 GA는 웹(Web)>앱(App), Amplitude는 앱(App)>웹(Web)의 순으로 장점이 있습니다.
또한 구글애널리틱스는 사용자를 서비스 웹/앱에 들어오게 하는 유입에 초점이 맞춰져있습니다. 사용자 획득이라고 하여, UA(User Acquisition)으로도 이야기하는데요. 모든 서비스의 첫 시작이라고 할 수 있습니다.
유튜브를 구독하기 위해서, 무신사에서 상품을 사기 위해서, 밀리의 서재에서 책을 읽기 위해서는 결국 유튜브, 무신사, 밀리의 서재에 유입되어야 하니까요. 즉 목표가 되는 전환을 위해서는 유입이 필수 요건입니다.
일례로 구글애널리틱스는 사용자의 유입을 만들어내는 채널(Organic, Paid, Refferal)의 데이터를 세부적으로 확인할 수 있습니다. (물론 앰플리튜드로도 확인할 수 있습니다.)
UA 관점 (User Acquisition) 이후로 언급되는 것은 리텐션 (Retention)인데요. 첫 방문, 첫구매로 사용자의 행동이 끝난다면 서비스가 장기적으로 살아남기는 어렵겠죠? 이에 따라 두 번, 세 번 방문하고 또 전환되는 재방문과 재구매가 중요합니다.
(*코호트: 동일 특성을 가진 사용자의 집단화) 충성 사용자들의 코호트를 분석하여 특성을 파악하고 다른 사용자들이 충성 사용자가 될 수 있도록 유도할 수 있습니다.
즉, 구글 애널리틱스가 UA에 강점이 있는 솔루션이라면 앰플리튜드는 리텐션에 강점이 있는 솔루션이라고도 이야기할 수 있겠습니다. (물론 GA도 Retention을 볼 수 있고, 앰플리튜드도 UA를 볼 수 있습니다.)
스타트업 쪽에서 데이터 분석 역량을 요하는 직군에게는 우대 사항 혹은 자격 요건이 됩니다. 오늘 기준 원티드에서 찾아본 채용 공고인데요.
채널톡의 마케팅 매니저 채용 공고 내에도 우대사항으로 세일즈포스(아마 태블로겠죠?), 앰플리튜드 등 데이터 솔루션을 통한 성과 측정이 언급됩니다.
왜 앱 데이터를 분석해야 할까요? 더 좋은 앱을 만들기 위해서겠죠. 앱 데이터는 무엇으로 구성될까요? 사용자들의 정보와 행동에 의해서 앱 데이터가 쌓입니다.
사용자들이 불편을 느끼는 지점이 사용자들이 이탈하는 지점일테고, 불편을 개선하면 이탈률이 낮아지고 잔존율이 높아지며, 잔존율이 높아지면 전환의 대상이 되는 모수가 많아지기 때문입니다. 즉 더 많은 전환을 유도할 수 있게되어 서비스가 목표하는 KPI - 매출이나 회원수 등 - 을 달성할 수 있게됩니다.
앰플리튜드를 사용하면
대시보드는 여러 차트의 구성으로 이루어져있는데요.
예를 들어 UA 대시보드라고 하면, 첫방문수 추이(차트1), 가입수 추이(차트2), 첫구매수 추이(차트3), 첫방문을 광고 매체 별로 쪼갠 것(차트1-1) 등으로 구성될 수 있겠습니다.
이외 데이터에 대한 접근성을 높여서 회사 구성원들의 데이터 기반 의사 결정 (data-driven) 의사결정을 돕습니다. 데이터를 sql, python으로만 추출하는 경우 이 데이터 스킬셋이 있는 사람들만 데이터를 추출할 수 있는데요. Amplitude는 한 번 도입해두면 차트를 그리는 것이 훨씬 쉬워, 원하는 것을 보기도 쉽습니다.
마지막으로 데이터의 연동이 빠르다는 것 또한 장점입니다. 어제의 매출 데이터도, 오늘 오전의 유입 데이터도 바로 확인할 수 있습니다.
마케터와 서비스기획자(PM/PO), 데이터 분석가(Data Analyst), UIUX 디자이너 등 여러 직군에서 활용할 수 있습니다.
전체 구성원들이 함께 확인할 수 있는 KPI 대시보드
마케터가 사용하는 마케팅 대시보드
서비스기획자(PM)이 사용하는 프로덕트 대시보드
디자이너가 사용하는 디자인 대시보드 등이 있습니다.
무료 버전이나 구독 모델을 사용해볼 수 있습니다.
앰플리튜드 정규 도입은 한국 공식 리셀러인 AB180/CJ맥소노미를 통해 진행할 수 있습니다. 이후 기획자들의 택소노미 설계와 개발자들의 구현을 통해 도입이 완료됩니다.
앰플리튜드를 한 번 사용하면 없는 것을 상상하기 어렵습니다. 앰플리튜드의 효능을 체감하는 곳들은 많습니다. 29CM, 무신사, SSG, 올리브영 등 '앱'이 중요한 주요 커머스들은 많이들 사용합니다!
(참조) 29CM의 데이터 그로스팀의 데이터 분석가 분이 쓰신 글
앰플리튜드의 한국 공식 판권은 AB180과 CJMaxonomy(CJ맥소노미)가 가지고 있습니다. 제가 재직 중인 마티니아이오(martinee.io)는 컨설팅펌입니다.
마티니의 그로스팀은 Amplitude를 도입할 때 택소노미 설계를 도와주고 데이터 파이프라인을 구축을 지원하며, 대시보드의 기획과 제작을 돕습니다. 즉 앰플리튜드가 '참고서'라고 했을 때 이를 판매하는 서점은 AB180과 CJ맥소노라면, 마티니는 과외 선생님입니다. 어떤 식으로 과외가 진행되는지, 시연을 원하시는 분들은 연락주세요!
June 14, 2024
왜 다들 데이터드리븐을 이야기할까요?
데이터드리븐의 중요성을 논하기 전에, 어제 회의를 떠올려 보면... 회의 때 다들 어떤 이야기를 하고 계신가요?
눈치채셨나요?
같은 상황(가입 과정, UI, 상품 매출, 체류시간)에 대해서 이야기하고 있는데 숫자가 더해진 것만으로 내용이 구체적이 되었습니다.
As-is의 상황은 상황 설명과 추측으로만 이루어져 특정 팀을 탓하는 것처럼 들리기도 하네요. (마케팅팀, UIUX팀, 상품팀, 프로덕트팀...에게 잘못을 전가하는 느낌이 묘하게 들죠.) 이에 반해 To-be의 상황은 상황 설명에 숫자가 붙고 비교군이 명확해지면서 문제를 정확히 직시하게 해줍니다.
✅ 카카오로 간편 가입하면 핸드폰 인증은 필요 없으니, UI에서 카카오를 좀 더 강조한 A/B 테스트해보시죠!
✅ 개선안 내에서 어떤 영역의 클릭률이 가장 높고 어느 영역에서 이탈하는지 추가 분석해볼까요?
✅ 클릭률이 높은 상품들의 썸네일들을 모아서 다른 점이 있는지 인사이트 찾고, 이미지 A/B 테스트 운영해보죠!
✅ 신규 캠페인에 의해서 유입 채널별 비중이 달라졌는지 확인해보고 사용자 특성 및 체류시간 점검해보죠.
구성원 별로 한 상황에 대해 여러 측면의 추측을 하는 것이 아닌, 동일한 시야를 가질 수 있게 되어 의견 교환이 훨씬 원활하고 빠르게 같은 결론에 도달할 수 있죠. 결국 데이터드리븐은 내 머릿속 드리븐이 아닌, 팀장님 머릿속 드리븐도 아닌, 사장님 머릿속 드리븐(....!)도 아닌
데이터드리븐의 중요성은 인지했다면 그 다음은 무엇일까요?
데이터드리븐 의사결정과 그것이 가능해지는 환경을 구축하는 것이겠죠.
보통은 엑셀, 구글 스프레드시트, PPT등으로 데이터를 봅니다. 엑셀/스프레드 시트의 단점은 숫자의 나열이기에 표를 해석하기가 쉽지 않다는 것이고 (물론 엑셀로 그래프를 구현할 수 있지만요!) 엑셀/시트를 raw data로 그래프를 그려 PPT에 얹으면 보기는 좋아지만 수작업이 필요하다는 것이 단점입니다.
특히 마케터들은 다수의 광고 매체와 MMP, 내부 DB의 데이터를 함께 봐야하므로 아무리 pivot을 돌린다고 해도 재가공해야하는 rawdata가 꽤나 많고 일간/주간 성과를 정리하는 것이 결국 시간을 왕창 잡아먹는 업무가 되죠.
결국 대시보드의 가장 좋은 점은 '자동화' 입니다. 직접 다운로드 받던 데이터들은 API로 호출해서 받아내고, 직접 정제하던 데이터들 또한 미리 정의해둔 데이터 스키마에 의해 분류되어 적재됩니다. 그래프, 필터, 전일/전주/전월 추이 등 형식을 미리 정해두면 데이터가 자동 업데이트되며 값은 채워집니다.
태블로 대시보드를 제작하기 위해는 4단계의 프로세스가 필요합니다.
환경 점검 > 데이터 수집 > 데이터 저장 > 데이터 시각화인데요.
자세한 내용은 다음 번 글에서 다뤄보도록 하겠습니다!
May 31, 2024
이벤트 택소노미 초기 설계 시, 어디에서부터, 무엇을, 어떻게 시작해야 할지 막막한 어려움을 조금이나마 해소해 드리고자, 밀리의 서재 · 버거킹 · 무신사 · 한샘 · 웍스아웃 · 발란 · KFC · 두나무 · 오늘의 집 등의 고객사들과 실제 프로젝트를 진행하며 얻은 인사이트를 공유드립니다.
2편에서는 <비용 최적화된 이벤트 택소노미를 설계하는 방법>을 상세히 다룹니다.
지난 글에서는 앞선 세 가지 단계를 통해 이벤트 택소노미의 정의와 설계 전 필독 유의사항을 살펴보았습니다.
본 글에서는 비용 최적화된 이벤트 택소노미를 설계하는 방법과 담당자 간 커뮤니케이션 단계를 다룰 예정입니다. 이벤트와 프로퍼티를 설계하는 단계부터는 단순히 내용과 방법을 나열하기보다, 실제 설계 사례를 중심으로 풀어보려 합니다.
ㅤ
많은 분들이 이벤트를 설계하고 난 다음 프로퍼티를 설계하는 순서로 이해하고 계시지만, 실제로 이벤트와 프로퍼티를 동시에 고려해야 하는 경우가 많습니다. 그러므로 본 글에서는 이벤트와 프로퍼티를 구분하지 않고 실제 현업에서 발생할 만한 택소노미 설계상 주요 이슈를 주제화하여 소개합니다.
이벤트 택소노미 설계 전 반드시 고려해야 할 필수 요소, 네이밍 컨벤션
ㅤ이벤트 택소노미 설계 시 네이밍 컨벤셔닝은 선택이 아닌 필수입니다. 이벤트와 각 프로퍼티를 정의할 때는 명확하고 일관된 명명법을 사용해야 하며, 사용자 행동을 명확하고 구체적으로 표현해야 합니다. '어느 누가 보아도 유추할 수 있는' 규칙을 지정해야 추후 개발과 분석에 혼동이 없습니다. 네이밍 컨벤션의 정의와 종류를 참고하여 담당자 간 규칙을 합의할 수 있습니다. 다양한 방법이 있지만 저는 주로 스네이크 표기법을 통해 소문자와 언더바(_)를 조합하여 이벤트와 프로퍼티명을 정의합니다.
좌측의 네이밍 컨벤션을 적용하지 않은 경우 'first_login'이 '로그인 페이지 조회'인지, 페이지 내의 '로그인 버튼 클릭'인지 구별이 어렵습니다. 반면 우측의 네이밍 컨벤션을 적용한 경우 가장 앞단에 행동 조건(trigger)과 이벤트명, 그리고 추가 정보까지 규칙적으로 정의되어 있어 비교적 구별하기가 수월합니다.
본격적인 설계 과정을 정독하기 전 아래의 '구매 퍼널'에 본인만의 네이밍 컨벤션을 적용한 이벤트와 각 프로퍼티를 직접 정의해 보시길 바랍니다.
ㅤ이벤트 택소노미를 설계하는 과정에서 중요한 것은 '생각하는 방법'과 '반복된 경험'입니다. 다양한 설계 방안들을 반복하여 구상하다 보면 향후 좋은 방안들만 솎아낼 수 있는 경험치가 쌓여 나만의 노하우를 형성할 수 있습니다. 이미 설계된 택소노미를 먼저 접하게 되면 추후 스스로 생각을 떠올리기가 어렵습니다. 누군가의 '완성된 결과물' 보다, '완성하는 과정'을 함께하셨으면 합니다.
1-2-3 퍼널에서 2 퍼널이 필요한가? Critical Path에 따른 필수 이벤트 설계하기
ㅤ네이밍 컨벤션을 정의하고 나면 전체 이벤트와 프로퍼티들을 설계해야 합니다. 이전에 정의했던 주요 이벤트를 기반으로 사용자의 여정을 그려봅니다. 이때 모든 이벤트는 중대한 경로(critical path)로 설계되어야 합니다. 즉 최종 전환 이벤트에 도달하는 퍼널이 반드시 필요한 이벤트로만 구성되어야 함을 의미합니다. 택소노미가 복잡해질수록 가독성이 떨어지고 이에 따라 보완 및 개선 작업이 까다로워질 수 있기 때문에 카테고리를 적절히 분류하는 것이 좋습니다. 아래 이미지는 '결제 완료' 카테고리를 기준으로 사용자가 자사 홈페이지에 진입하는 시점부터 결제를 완료하는 시점까지의 퍼널을 그린 예시입니다.
ㅤ 위 간소화 전 퍼널을 살펴보면 메인 페이지 내에 도서 상세 페이지까지 진입할 수 있는 경로가 다양합니다. 메인 페이지에서 개별 도서를 클릭하여 도서 상세 페이지로 곧바로 이동할 수도 있고, 'ㅇㅇ님이 좋아할 만한 작품', 혹은 '이번주 베스트셀러'와 같은 특정 카테고리 경로를 거친 후에 상세 페이지로 이동할 수도 있습니다. 그러나 이처럼 다양한 경우의 수를 각각의 이벤트로 설계하게 되면 효율성이 떨어지게 됩니다. 사용자가 메인 홈페이지에서 곧바로 개별 도서 클릭 시 'click_item_list'와 'click_item'의 클릭 이벤트가 동시 발생하게 되며, 이때 ‘click_item_list' 이벤트는 'null' 값으로만 채워지기 때문입니다.
ㅤ또한 도서 클릭 시 'click_item'과 'view_item'이 동시 발생하는 것을 볼 수 있는데, 마케터가 클릭 관련 성과를 분석하고자 하는 특정 페이지가 도서의 상세 페이지라면 그 외 페이지, 즉 메인 홈페이지에서 모든 클릭을 추적할 필요는 없습니다. 만일 모든 페이지의 이벤트를 조회와 클릭 이벤트로 동시 설계한다면 이벤트 발생 시마다 유사 이벤트가 중복 발생하므로 이 또한 매우 비효율적이게 됩니다. 모든 경로를 이벤트로 설계하기보다 프로퍼티를 이용하여 경로를 간소화하는 것이 비교적 효율적입니다. 아래 이미지는 '도서 카테고리(item_list)'와 '개별 도서(item)' 프로퍼티를 구분하여 이벤트를 간소화한 예시입니다.
위 간소화된 퍼널을 기반으로, '메인 홈페이지' 진입 > '베스트랭킹' 카테고리 클릭 > '특정 상품' 클릭의 상황을 가정한다면, 아래 이미지와 같이 'click_item_list', 'click_item' 이벤트 없이도 프로퍼티를 통해 중간 경로값을 얻을 수 있습니다.
View와 Click 이벤트가 동시에 추적해야 하는 경우
ㅤ
특정 프로모션 페이지 내에 '신작 첫 화 무료보기' 혹은 유료 광고의 '더 알아보기 버튼 클릭' 등 다양한 유입이 있을 수 있습니다. 이러한 경우 페이지 상의 유입 경로를 분석해야 하기 때문에 '조회'를 기준으로 추적합니다. 한편 클릭 혹은 스크롤 뎁스와 같이 특정 페이지에 한정하여 분석이 필요한 경우에는 페이지 내의 ‘액션‘을 기준으로 추적합니다.
ㅤ 네이버 시리즈의 도서 상세 페이지의 경우 view와 click이 동시에 필요합니다. 예를 들어 특정 도서의 상세 페이지 내에 '무료로 첫화보기' 혹은 '다음화 이어보기' 등의 버튼과 같이 결정적인 클릭 요소가 있는 동시에 신작 홍보 이벤트나 기간 한정 프로모션을 통한 유입 경로가 다양할 수 있습니다. 이러한 경우가 '조회'와 '클릭'을 동시 추적해야 하는 경우라고 볼 수 있습니다.
'구매(purchase)' 이벤트가 '무료'와 '유료'로 나뉘는 경우
ㅤ 지금까지 도서의 상세 페이지로 진입하여 충전과 구매가 이루어지는 단일 퍼널에 대해 살펴보았습니다. 그러나 일반적으로 단일 퍼널만으로 구성되는 경우는 드물며, 전환의 기준 또한 다양합니다. 도서 플랫폼의 경우 1화, 2화, 3화, ...로 이어지는 연재본이 있는 반면, 연재본의 묶음 단위인 단행본이 있습니다. 각각의 도서 유형 모두 '무료(혹은 미리보기)'의 개념이 있으며, 마케터는 무료와 유료 구매의 모든 경우를 분석하길 희망한다고 가정합니다. 이때 매우 다양한 경우의 수를 고려해 볼 수 있습니다.
아래는 특정 도서의 상세 페이지에서 '무료' 전환과 '유료' 전환을 프로퍼티로 나눈 예시입니다. 사용자가 'click_episode'를 발생시킬 시 'item_preview'가 True(무료 회차)인 경우 즉시 도서 열람 페이지로, False(유료 회차)인 경우 구매 결정(click_purchase) 페이지로 이동하게 됩니다. 단, 유료 회차이지만 해당 회차를 이미 구매한 경우 무료 회차와 동일하게 즉시 열람 페이지로 이동합니다.
이처럼 프로퍼티를 잘 활용하면 택소노미의 설계를 간소화할 수 있습니다.
개발자가 한 번에 알아보는 '이벤트 택소노미 시트'
ㅤ마케터와 마찬가지로 개발자 역시 마케터와 설계자의 관점을 알지 못하기 때문에 개발자 편의적인 택소노미(Dev. Sheet)를 별도로 작성하여 전달하여야 하며, 이러한 세부 자료를 전달함과 동시에 충분한 구두 설명이 뒷받침되어야 합니다. 네이버 시리즈 웹/앱 내에서 사용자가 상호작용을 일으키면 개발자는 설계자가 요청한 정보(미리 정의해 둔 이벤트나 프로퍼티)들을 데이터 레이어 형태로 푸시해 줍니다. 그러면 우리는 디버깅을 통해 요청한 데이터가 올바르게 푸시되는지 실시간 로그로 확인할 수 있습니다. 데이터 레이어란 웹사이트에서 정보를 담고 있는 자바스크립트 배열입니다. 쉽게 말해, '데이터 송수신을 하기 위한 매개체'로, 백단에서 특정 이벤트 데이터를 푸시(push)하면 디버깅 시 프론트에서 확인 가능한 형태로 전달받는 식입니다. 일반적으로 속성(key)과 속성값(value)이 아래와 같은 형태로 구성되어 전달됩니다.
이때, 클릭(click) 또는 조회(page_view)와 같은 일반적인 이벤트 외에 모든 In-web/app 이벤트의 하위 속성으로 호출되는 사용자 속성(user property)이나, 특정 데이터 타입(data type), 혹은 자료 구조(data structure hierarchy)가 통일되지 않고 다양할 경우 택소노미 설계 시 별도로 명시해 주는 것이 좋습니다.
ㅤ 이전 글에서 언급했듯 이벤트 택소노미를 설계할 때는 마케팅 관점과 개발 관점을 별도로 이해하고 적용해야 합니다. 예를 들어, 마케터에게는 유저 플로우를 이해하는 데 초점을 맞춘 시각화된 자료(피그마 등)를 제공하되, 개발자에게는 데이터 로그를 이해하는 데 도움될 만한 정리된 자료를 제공합니다. 이때 시트의 유형은 이벤트 프로퍼티(Event Property)와 유저 프로퍼티(User Property) 두 가지로 분류됩니다.
각 시트 내에는 아래와 같은 항목들이 포함됩니다. 필수 항목은 아니며, 자사의 서비스 특성을 고려하여 필요한 항목으로 구성할 수 있습니다.
[Columns of Event Propery Sheet]
[Columns of User Propery Sheet]
*제가 사용했던 택소노미 템플릿 양식은 아래 링크를 통해 다운받으실 수 있습니다. 이외에도 웹사이트 내에 다양한 템플릿이 존재하니 용도에 맞는 템플릿을 적절히 커스텀하여 사용하시길 바랍니다.
▶︎ Event Taxonomy Template (soyun)
ㅤ개발 지식이 부족하더라도, GA4 기반의 이벤트와 파라미터를 잘 정리해 놓은 자료를 참고하여 약간의 시간만 투자하면 주니어 마케터(혹은 엔지니어 등) 분들께서도 충분히 이와 같은 설계가 가능합니다. 또한 GA를 이용하는 경우가 아니라 하더라도 보편적으로 쓰이는 이벤트와 프로퍼티 (해당 페이지에서는 파라미터로 구분됩니다)의 예시를 살펴볼 수 있습니다.
전략에 녹일 수 없는 방대한 데이터는 묶음 처리
ㅤ택소노미 설계에 참여하는 담당자가 마케터와 개발자, 그리고 설계자 외에도 기획자나 상품 개발팀이 참여한다면 택소노미의 방향성이 현재와는 완전히 달라질 수 있습니다. 마케터가 아닌 기획자나 MD의 입장에서는 UI/UX상의 노출이나 클릭과 같은 단순 행동 추적을 넘어 특정 회차의 반응 정도가 중요할 수 있습니다. 그러나 연재본의 모든 회차를 추적하기란 비용상의 어려움이 있습니다. 아래 이미지와 같이 결정적인 지표의 경우 하나의 페이지를 추적하기 위한 다양한 프로퍼티가 존재하는데, 100화가 넘는 연재본이 무수히 존재하기 때문에 회차를 기준으로 실시간 추적하는 경우 서버 과부하로 비용이 과다하게 발생하여 관리상의 어려움이 있을 수 있습니다.
위 예시에서 수시로 발생하는 이벤트 중 'click_charge_cookie_tried'와 'charge_cookie_completed'와 같이 프로퍼티 데이터의 양이 상당한 경우를 예로 들 수 있습니다. 퍼널을 간소화하거나 프로퍼티를 줄일 수도 없는 상황이라면 최소한 이벤트 발생 횟수를 감소시키는 방안이 있을 수 있습니다. 예를 들어, 연재본을 10화씩 그룹으로 묶어 이벤트 발생횟수를 단축시킴으로써 서버상의 관리가 비교적 원활하게 이루어질 수 있도록 강제하는 방법이 있습니다.
- 연재 1회차당 1번 기록하는 경우
- 연재 10회차당 1번 기록하는 경우
ㅤ택소노미를 지속 수정 및 개선하기 위해 마케터와 정기적인 미팅을 진행합니다. 택소노미상의 모든 이벤트를 실제로 조합하고 분석하며 직접적으로 개입하는 당사자이자 결정권자이기 때문에, 설계의 전/중/후 모든 단계에서 끊임없는 QnA를 진행하게 됩니다. 설계 전 초기에 진행한 사전 인터뷰를 통해 이미 많은 정보를 얻었다고 생각할 수 있지만 더는 구체적일 수 없을 정도로 자세한 정보를 얻어야 합니다. 마케터의 관점을 정확히 파악해야 설계상의 번거로운 수정 작업을 최소화할 수 있습니다. 앞서 언급했듯 담당자 간 의견 차이는 매우 주관적이므로 지속적인 꼬리 질문을 통해 애매한 기준을 제거하는 것이 최선의 방법입니다.
ㅤ한 가지 좋은 예로, 담당자에게 Daily Check List를 실시간으로 공유하는 방법이 있습니다. 클라이언트 측에서는 택소노미상의 진행 상황과 상세 내용을 실시간으로 확인할 수 있고, 설계자 입장에서는 커뮤니케이션에 소요되는 시간을 절약할 수 있어 효율적입니다.
ㅤ1차 설계안에 대한 협의가 완료되었다면 백엔드에서 데이터 작업을 해 줄 개발팀과 협의를 해야 합니다. 이때 1차 설계안은 '대략적으로 설계'하여 이후 개발팀과의 미팅을 통해 택소노미를 구체화하는 것이 좋습니다. 개발자와의 협의 없이 마케터의 모든 요구사항을 즉시 반영하기 위해 한 번에 많은 에너지를 쏟게 되면, 이후 택소노미를 전면 수정하는 참사가 일어날 수 있기 때문입니다.
ㅤ 서비스마다 사용하는 분석 도구(analytics tool)와 데이터 구조가 저마다 상이하기 때문에 이를 먼저 파악해야 합니다. 일반적으로 타사(구글 애널리틱스, MMP 등) 애널리틱스를 사용하거나, 자사 자체 구축 애널리틱스를 사용하는 경우로 나뉘는데, 두 가지를 병용하는 경우도 다분합니다. 예를 들어, 자사 애널리틱스의 로그 이용 시 경로 추적에 한계가 있기 때문에 이에 최적화되어 있는 GA4와 병용하는 경우를 흔히 볼 수 있습니다. *GA4와 GTM을 사용한다면 [구글 애널리틱스] 데이터 레이어 (Data Layer) 총 정리 (1) 내용을 참고 바랍니다.
자사 자체 애널리틱스의 경우에는 개발상에 제약이 거의 없기 때문에 내부 개발 리소스만 충분하다면 설계와 분석이 매우 수월합니다. 단, 개발자에게 보다 명료한 자료를 제공해야 개발자와의 커뮤니케이션 오류를 최소화할 수 있습니다.
[택소노미 설계 시 사용 플랫폼]
다음 글에서는 QA를 통해 발생 가능한 개발상의 이슈와 이를 통해 얻을 수 있는 인사이트를 공유드릴 예정입니다.
원본 포스팅 링크
May 30, 2024
이벤트 택소노미 초기 설계 시, 어디에서부터, 무엇을, 어떻게 시작해야 할지 막막한 어려움을 조금이나마 해소해 드리고자, 밀리의 서재 · 버거킹 · 무신사 · 한샘 · 웍스아웃 · 발란 · KFC · 두나무 · 오늘의 집 등의 고객사들과 실제 프로젝트를 진행하며 얻은 인사이트를 공유드리게 되었습니다.
본 1편에서는 <이벤트 택소노미의 정의와 설계 전 필독 유의사항>에 대해 다룹니다.
ㅤ이벤트 택소노미는 크게 '이벤트 유형(Event Category)', '이벤트(Event)', '이벤트 속성(Property)'의 세 가지 항목으로 구성됩니다. '이벤트 카테고리'는 유저의 최종 행동 목적이며, '이벤트'는 이러한 목적을 달성하기 위한 주요 액션들의 묶음입니다. 그리고 각 이벤트 내에는 이벤트 발생 시 ‘추가적으로 수집하고 싶은 정보‘의 '속성'들로 구성됩니다. 이러한 이벤트와 프로퍼티를 특정 규칙에 따라 분류한 데이터 분류 체계를 ‘택소노미(Taxonomy)'라고 부릅니다. 즉, ‘이벤트 택소노미 설계'한다는 것은 자사 서비스 분석에 필요한 이벤트를 식별하고, 이벤트별로 어떤 속성이 들어가야 하는지 고민하여 데이터를 설계하는 작업을 의미합니다. 이를 통해 우리는 사용자의 행동 패턴을 이해하고, 그에 따른 마케팅 전략을 수립할 수 있습니다.
'이벤트 카테고리'란 이벤트의 유형을 정하기 위한 단위로, 유사한 이벤트를 하나로 묶어 관리할 때 유용한 요소입니다.
'이벤트 카테고리'는 주로 최종 전환 이벤트로 정의되어 전환까지의 하나의 퍼널을 총칭합니다.
예를 들어 이벤트 카테고리가 ‘회원가입’인 경우, 이벤트 카테고리 내에는 홈페이지에 접속하여 특정 서비스를 이용하고자 회원가입 버튼을 클릭하여 회원가입 완료 페이지까지 이어지는 퍼널이 포함됩니다.
즉 ’이벤트 카테고리‘ = ‘최종 전환 이벤트의 퍼널’이라고 생각하시면 이해가 수월합니다.
‘이벤트’란 사용자가 프로덕트를 사용하는 과정에서의 행동이나 그 결과로 발생하는 사건을 가리킵니다.
예를 들어, '로그인 버튼 클릭', ‘관심상품 추가', ‘장바구니 담기', ‘구매 완료' 등과 같은 일련의 사용자 행동이 이에 해당하며, 그 외에 ‘주문서 로딩 시간’, ‘서버 API 처리 시간’ 등도 이벤트로 볼 수 있습니다.
프로퍼티란, 웹 문서의 동적인 객체 속성을 의미합니다.
쉽게 말해, 사용자나 이벤트가 가진 동적인 특성을 의미하며 사용자 행동에 대한 세부 분석을 위해 이벤트와 함께 수집됩니다.
예를 들어, '회원가입일자', '회원가입 방법', '회원가입 페이지 유입 경로' 등의 속성값이 이에 해당합니다.
아래의 그림은 오프라인에서 우리의 행동을 온라인에서 발생하는 이벤트로 전환하여 표현했을 때 어떻게 정리할 수 있는지 보여주는 표입니다. 이를 통해 우리는 이벤트와 속성 간의 차이를 확인할 수 있습니다.
1. 택소노미의 목적 및 방향성 수립
2. 주요 지표(이벤트 카테고리) 설정
3. 사용자 여정(User flow) 스케치
4. 이벤트 & 프로퍼티 설계
5. 마케터 협의
6. 개발자 협의
7. QA 테스트
8. 최종 수정
본 글에서는 1번(이벤트 택소노미의 목적 및 방향성 수립)부터 3번(사용자 여정(User flow) 스케치)까지의 프로세스를 다룹니다.
4번(이벤트&프로퍼티 설계)부터의 프로세스가 궁금하시다면 아래 다음 글을 참고해 주세요.
▶︎ 다음 글 : 비용 최적화된 이벤트 택소노미 설계하기
ㅤ사실 이벤트 택소노미는 본격적으로 설계하는 당시보다, 설계하기 전 목적과 방향성을 분명히 하는 데 더 중점을 두어야 합니다. 목적과 방향성이 불분명한 상태로 설계를 시작하면 추후 수정이 잦아지고 설계가 복잡해지면서 혼동이 잦을 수 있기 때문입니다. 또한 복잡해진 설계를 해결하기 위해 수정을 지속 거치다 보면 택소노미 자체에 의미를 두게 되면서 정작 본연의 목적이 흐려질 수도 있습니다. 이벤트 택소노미는 데이터 분석을 위한 하나의 도구일 뿐이며, 택소노미를 설계하는 것 자체가 목적이 되어서는 안 됩니다. 마케팅 관점에서 분석이 용이해야 하고, 개발 관점에서 구현이 가능해야 하는 점을 기억해야 합니다.
ㅤ그러므로 최종 대시보드에서 데이터를 마주하게 될 관련 담당자들과 충분한 논의가 이루어져야 합니다. 네이버 시리즈의 경우 사용자가 회원가입 → 쿠키 충전 → 도서 구매 → 도서 열람의 퍼널이 매끄럽게 이어지도록 하는 것이 최종 목표라고 가정합니다. 여기에서 주요 이벤트는 각각 sign_up, charge_cookie, purchase_completed, view_episode가 될 수 있습니다. 이를 파악하기 위해서는 먼저 서비스에 대한 이해가 선행되어야 합니다. 핵심은 양 당사자(사용자와 플랫폼)의 입장을 모두 고려하여 서비스를 이해해야 한다는 점입니다.
첫 미팅 전 웹사이트를 점검하며 어떤 애널리틱스를 사용하고 있는지 확인하고 해당 애널리틱스 구조에 맞게 주요 지표들을 스케치해야 합니다.
ㅤ통상적으로 '구매(purchase)'하는 행위를 최종 전환 기준으로 보기 마련이지만, 전환의 기준은 서비스마다 천차만별입니다. 네이버 시리즈의 경우 실제로 카드에서 결제 내역이 기록되는 시점은 도서를 구매하기 위해 쿠키를 '충전(charge_cookie)'하는 시점이기 때문에 설계자 입장에서는 '결제'를 중점으로 퍼널을 설계할 가능성이 다분합니다. 그러나 마케터 입장에서는 도서 플랫폼 특성상 충전을 하더라도 실제로 도서를 소비하는 행위, 즉 도서를 '구매'하고 '열람'하지 않는다면 의미가 없을 수 있습니다.
ㅤ네이버 시리즈의 경우 ‘쿠키 충전, ‘도서 결제’ 후에도 실제로 전자책을 읽는 ‘소비’의 기준까지 있기 때문에 설계자는 어느 지점이 최종 전환의 기준인지, 2개 이상의 전환 기준이 있다면 우선순위는 어떻게 되는지 파악해야 합니다. 예를 들어, 네이버 시리즈의 사용자 입장에서는 '구매 완료(purchase_completed)' 이벤트가 중요할 수 있습니다. 결제가 완료되고 다운로드를 완료한 시점부터 서비스를 이용하고 있다는 인지를 하기 때문입니다. 반면 플랫폼 입장에서는 '도서 열람(view_episode)' 이벤트가 중요할 수 있습니다. 구매(purchase_completed)를 하더라도 실제로 상품(도서)을 소비(열람) 하지 않으면 ‘도서를 읽은 사람’이 아니라 단순히 ‘도서를 구매만 한 사람’이기 때문입니다. 그러나 이 두 경우 모두 동일하게 최종 구매 완료(purchase_completed) 이벤트로 카운트되기 때문에 플랫폼 입장에서는 purchase_completed 뿐만 아니라, 실제로 도서를 열람하는 view_episode까지의 퍼널이 필요합니다.
ㅤ이렇듯 데이터를 바라보는 관점은 직무에 따라, 혹은 서비스 행태에 따라 모두 상이합니다. 따라서 가급적 제품이나 서비스에 대한 이해가 최우선 되어야 하고, 꼬리 질문을 통해 담당자 측으로부터 분석하고자 하는 지표에 대한 정보를 이끌어내어 이러한 간극을 좁혀나가는 것이 중요합니다.
ㅤ마케터와 충분한 논의가 되었다면 개발 관점에서는 실제로 추적 가능한 데이터인지, 혹은 표현 가능한 데이터 형태인지를 판단해야 합니다. (*개발 관점에서의 택소노미 설계 방안은 다음 글에서 상세히 다룰 예정입니다) 만일 마케터의 관점만을 중점으로 택소노미를 설계한다면 추후 설계안 전체를 뒤엎어야 할 수도 있습니다.
- 마케터: "A 데이터와 B 데이터가 필요합니다."
- 엔지니어: "A, B 데이터 기반으로 택소노미 설계 완료되었습니다."
이례적인 경우이긴 하나, 위와 같은 상황이 닥치면 완전히 다른 형태의 택소노미를 처음부터 다시 설계해야 할 수도 있습니다. 따라서 택소노미를 설계하기 전 어떠한 분석 툴을 사용하고 있으며, 어떠한 지표들을 추적할 수 있는지에 대한 개발팀과의 커뮤니케이션 역시 매우 중요합니다.
ㅤ이벤트 카테고리를 설정하기 위해 서비스의 유저 플로우를 상상하며 아이데이션을 진행합니다. 서비스에 대한 시장 조사를 통해 이용자의 특성을 고려하여 실제 사용자 관점에서 퍼널에 유입되어 보기도 합니다. 일반적인 주요 지표로는 '회원가입(sign_up)', 장바구니 담기(add_to_cart)', '구매(purchase)'가 있으며, 이는 서비스마다 매우 다양하게 분류될 수 있습니다. 네이버 시리즈의 경우 '쿠키 충전(charge_cookie), '도서 다운로드(download_book)', '도서 열람(view_book)'의 추가적인 주요 지표가 있을 수 있습니다. 각각의 주요 지표들은 2-3가지를 하나의 카테고리로 묶을 수도 있고, 각각의 퍼널로 분류할 수도 있습니다.
[이벤트 카테고리 분류 예시]
이외에도 매우 다양한 경우의 수가 존재합니다. 다만 다섯 번째 케이스와 같이 하나의 퍼널에 모든 주요 카테고리를 연결하여 설계하게 되면 택소노미의 가독성이 현저히 떨어질 수 있어 권장하지는 않습니다.
ㅤ첫 미팅 전 인터뷰 질문을 사전 공유하여 답변을 미리 생각할 수 있도록 하는 것도 좋은 방법입니다. 특히 이미 론칭된 기존 서비스의 경우 접속에 제한이 없기 때문에 정보를 습득하기 수월하지만, 론칭 전 신규 서비스의 경우 내부 보안 문제로 접속이 불가하여 미팅 전 사전 자료 조사가 어려운 경우 사전 인터뷰지를 작성하는 것은 더욱 유용합니다. 인터뷰 질문의 경우 앞서 미팅 전 가정했던 주요 지표들을 기반으로 작성한다거나, 홈페이지의 UI/UX상으로는 명확히 파악하기 어려운 사항들을 리스트업 하고, 론칭 전 서비스의 경우 자사의 기존(과거) 서비스를 참고하거나, 경쟁사의 레퍼런스를 참고하여 설문지를 작성하는 것도 하나의 방법입니다.
이때 각 질문들은 가능한 구체적으로 풀어 작성하는 것이 중요합니다.
[인터뷰 질문 유형 예시]
ㅤ마케팅과 개발 모두의 관점에서 택소노미의 목적과 방향성을 분명히 하고 사전 자료 조사에 따라 인터뷰를 원활히 진행하여 택소노미의 뼈대를 완성했다면, 이제 설계에 돌입하여 주요 지표 사이 사이에 살을 붙여야 합니다. 예를 들어 '회원가입 완료(sign_up)'를 위해서는 회원가입 페이지에 진입하여 회원가입 시작을 클릭하고, 사용자 정보를 입력하여 최종적으로 회원가입 완료하기 버튼을 클릭하면 회원가입의 퍼널이 완성됩니다. 이러한 유저 플로우의 간략한 아키텍처를 스케치해 두면 추후 택소노미를 구체화하기가 훨씬 수월합니다.
--
다음 글에서는 본격적으로 이벤트 택소노미를 설계하는 방법과 실제 플랫폼 서비스의 택소노미 설계 사례를 자세히 다루어 볼 예정입니다.
▶︎ 다음 글 : 비용 최적화된 이벤트 택소노미 설계하기
[비용 최적화된 이벤트 택소노미 설계하기]
원본 포스팅 링크
https://brunch.co.kr/@soxxun/7
May 10, 2024
마티니는 최근 버거킹 코리아와 함께 Amplitude를 활용한 그로스 프로젝트를 진행하고 있습니다.
고객의 참여를 유도하고 장기적으로 수익 증대를 실현하는 그로스 마케팅의 첫 단추인 AARRR 퍼널 구현 사례를 공유하고자 합니다.
이 글에서는 AARRR 프레임워크의 정의부터 해당 프레임워크를 적용하여 어떻게 대시보드 목차를 구성하고 직접 구현하는지에 대한 플로우를 설명하였습니다. 차트 예시는 Amplitude의 데모 계정의 데이터를 활용하여 구현하였습니다.
‘그로스 해킹’이라는 단어를 처음으로 만들어낸 션 앨리슨은 비즈니스가 성장하기 위해서는 ‘좋은 제품을 사람들이 어떻게 사용하게 만들지’를 고민하는 것이 매우 중요한 시작점이라고 했습니다. 그는 비즈니스가 최대한으로 성장할 수 있는 방법을 계속해서 실험하여 그로스 해킹의 프레임워크가 있다고 주장했습니다.
실제로 이러한 프레임워크를 활용해서 Dropbox는 10명의 직원에서부터 지금은 10억 달러 (한화 1조원)이 넘는 초 대기업이 되었습니다.
그로스 분석의 목적은 서비스별 지속 가능한 선순환의 비즈니스 사이클을 만드는 것입니다.
그럼, 이 사이클은 어떻게 찾아낼 수 있을까요? 지금까지 해왔던 대로의 ‘관습’은 새로운 소비자의 변화를 쫓아가기에 느리고, ‘감’은 불확실합니다. 이때 우리는 ‘데이터’를 활용하게 됩니다.
과학적으로 접근해서 이러한 사이클의 단서를 찾을 수 있습니다. 즉, 션 앨리스가 강조하는 ‘과학적 접근’의 ‘그로스 해킹 프레임워크’가 바로 ‘AARRR’입니다.
그로스 해킹 퍼널인 AARRR은 Acquisition(유입), Activation(활성화), Retention(리텐션), Revenue(매출), Referral(추천)의 5단계로 이루어져 있습니다.
버거킹 서비스에 대조해 보면 아래와 같은 질문들을 나열해 볼 수 있으며, 해당 질문들이 바로 각 단계별로 고려해야 하는 지표를 의미합니다.
📝 AARRR Funnel
(1) Acquisition (유입, 획득)
(2) Activation (활성화)
(3) Retention (리텐션)
(4) Revenue (매출)
(5) Referral (추천)
그럼 우리는 위 질문에 대한 답을 어떻게 찾을 수 있을까요? Amplitude라는 프로덕트 분석 툴을 활용하여 AARRR 대시보드를 구현하여 확인할 수 있습니다.
📝 AARRR Funnel에 따른 대시보드 목차 구성
(1) Acquisition (유입, 획득)
(2) Activation (활성화)
(3) Retention (리텐션)
(4) Revenue (매출)
(5) Referral (추천)
우선 서비스 특성에 맞춰 유저 코호트를 생성합니다. 예를 들면 앱 주문, 웹 주문과 같이 주문 채널, 주문 횟수, 연령대, 주문 금액대, 성별 등 특성을 기반하여 유저 코호트를 생성하고 코호트와 전체 유저별 차이를 확인합니다.
더불어 프로모션의 주기, 사용 주기를 바탕으로 각 차트의 기간을 정합니다. 최근 30일 자, 일자별 혹은 최근 90일, 월별 등의 날짜 옵션으로 정할 수 있습니다.
*Amplitude 차트는 목업 데이터를 활용하였습니다.
*각 항목별 주요 테이블 차트만 예시로 설명하였습니다.
1️. DAU (Daily Active User, 일별 활성 유저)
📌 체크 포인트
2️. 회원가입
3️. 설치
📌 체크 포인트
1️. 첫 구매 경로
View Item Details
→ Add to Cart
→ Checkout
→ Complete Purchase
순이라고 가정했을 때, 첫 구매 경로를 구하기 위해서는 기준이 되는 이벤트에 Historical Count = 1 조건을 걸어 확인할 수 있습니다.View Item Details
에서 마지막 이벤트인 Complete Purchase
까지 대부분의 유저가 5일 내에 전환을 완료했기 때문입니다. 이는 Time To Convert 측정을 통해 확인할 수 있습니다.
📌 체크 포인트
1️. 리텐션 Engagement Matrix
App Push
, In_App_Message Impression
과 같은 분석과 관련도가 낮은 이벤트는 수동으로 체크박스 해지하여 필터링 적용할 수 있습니다.
📌 체크 포인트
1️. 주문 이벤트 Compass
2️. 건단가
Average of
Property Value
대신 Sum of Property Value
로 선택하여 확인이 가능합니다.
3️. 객단가
📌 체크 포인트
1️. 입소문 계수 (WOM, Word Of Mouth) (출처:Reforge)
Amplitude는 프로덕트를 이용하고 있는 고객을 이해할 수 있도록 도와주는 매우 유용한 분석 툴입니다. 하지만 동시에 처음 시작하기에 어려운 툴이기도 합니다. 어떠한 데이터 차트를 만들고 무슨 지표를 봐야 할지 결정하기란 쉽지 않기 때문입니다.
이때 그로스 해킹의 AARRR 프레임워크를 기반으로 질문들을 써 내려가다 보면 답을 얻기 위해 필요한 데이터와 지표가 눈에 보이기 시작할 것입니다. AARRR 대시보드를 통해 서비스의 성장을 확인하고 추가적으로 시도해 볼 만한 인사이트를 얻으시길 바랍니다.
- AARRR: Come Aboard the Pirate Metrics Framework
- Engagement Matrix: discover what your users love (and don't love) about your product
- How to Calculate The Word of Mouth Coefficient in Amplitude
April 9, 2024
웹 마케팅을 한 번이라도 접해본 사람이라면 SEO(Search Engine Optimization, 검색 엔진 최적화)라는 단어를 들어 본 적 있을 것이다.
내 웹 사이트가 검색 엔진에서 상위에 노출될 수 있도록 최적화하는 과정을 말한다. 앱도 마찬가지이다.
앱 스토어에서 내 앱의 이름 혹은 앱과 관련된 키워드를 입력하면
앱 순위를 올려 해당 키워드를 검색한 유저에게 내 앱을 잘 보이도록 최적화하는 과정을 앱스토어 최적화(App Store Optimization), ASO라고 한다.
앱 다운로드의 65% 이상이 앱 스토어 검색으로 발생하기 때문에
ASO는 최소한의 비용으로 최대의 오가닉 전환을 이끌어낼 수 있는 마케팅 전략이다.
ASO의 요소를 파악하고 꾸준히 개선하여 앱 설치 수를 증대시킬 수 있도록 해야 한다.
단, AOS의 구글 플레이 스토어와 iOS의 앱스토어는 알고리즘과 순위 요소를 결정하는 항목이 다르기 때문에 각각 분류하여 최적화를 진행해야 한다.
할인도 많이 하고 유니크한 브랜드가 많아서 요즘 옷 구경할 때 애용하고 있는 EQL를 예시로 들어보려고 한다.
여담이지만 룩북 콘텐츠 읽는 재미도 쏠쏠하다,, 잡지 읽는 기분ㅎㅎ 팬심을 담아서 간단하게 ASO를 진행해 보았다. (AOS 기준)
우선 AOS ASO를 하기 위해서 체크해야 하는 주요 요소는 제목, 간단한 설명, 긴 설명, 유저 리뷰 항목이 있다.
항목을 파악하고 난 뒤에는 경쟁사를 파악하여 경쟁사 ASO를 참고하는 것이 좋다.
ASO를 할 때는 경쟁사 앱을 파악하고 모니터링하는 것이 굉장히 중요한데,
경쟁사의 앱 순위와 키워드를 파악하여 내 앱의 인스톨로 유도하고 내 앱이 속해 있는 앱 마켓에서 어떤 포인트가 유저들의 클릭을 유발할 수 있는지 미리 알 수 있기 때문이다.
즉, 내 앱 마켓 카테고리에서 효과가 있는 키워드 세트를 발굴할 시간을 단축할 수 있다.
EQL를 최적화해야 할 때 참고해야 할 경쟁사는 어디일까?
1) 주 이용 고객의 인구통계 정보가 비슷한 앱
e.g. 2030 여성
2) 앱 카테고리가 비슷하고 해당 카테고리에서 상위 랭킹인 앱
e.g. AOS / 쇼핑 : Temu, AliExpress, 올리브영, 쿠팡, Nike, 위메프, 무신사, SHEIN, SSG, KREAM, 에이블리, 포스티, 29cm 순
3) 서비스 지향점이 비슷한 서비스
e.g. EQL - MZ 세대 타깃, 엄선된 브랜드, 트렌디한 온라인 편집샵
29cm - 브랜드 철학과 제품의 가치를 소개하는 온라인 셀렉트샵
무신사 - 고객에게 최상의 쇼핑을 제공하고 입점 브랜드의 성장을 지원, 브랜드 패션 플랫폼
4) EQL 이탈 고객의 주 유입 서비스
위 4가지 항목을 고려했을 때 EQL의 경쟁사는 크게 무신사, 29cm, Posty로 추려볼 수 있었다.
나의 앱과 경쟁사 앱을 참고해서 키워드 리스트를 만든다.
Apptweak, App Radar과 같은 ASO 솔루션 툴을 활용하거나 구글 트렌드, 키워드 플래너, 네이버 키워드 검색 도구 등
키워드 인사이트 툴을 살펴보고 내 앱에 관심을 가질 만한 유저들이 쓸 키워드 리스트를 뽑는 것이다.
주로 Apptweak라는 툴을 사용해서 키워드 리스트를 추출한다.
Apptweak에 경쟁사를 추가하면 경쟁사를 포함한 관련 카테고리 앱들이 사용하고 있는 키워드가 나열된다. 해당 키워드를 클릭해서 내 목록에 추가하면 키워드들의 전환 지표를 확인할 수 있다.
[참고] Apptweak - 우리 앱 키워드 목록을 생성하기 위한 팁 10가지 (링크)
전환 지표들이 좋은 키워드, 혹은 그럴 가능성이 높아 보이는 키워드를 뽑아 리스트를 만들고 해당 키워드를 조합하여 키워드 세트를 만든다.
e.g.
이렇게 추출한 주요 키워드 세트를 참고하여 제목, 설명 영역에 반복하여 활용하도록 한다.
2~6주간 해당 키워드 세트의 전환율을 확인하고 효율이 좋지 않다면 다른 키워드 세트를 조합하여 최적화한다.
제목은 AOS ASO에서 가중치를 가장 많이 갖는 영역으로 앱 이름을 포함해 서비스를 설명할 수 있는 주요 키워드 위주로 작성하는 것이 좋다.
현재 EQL는 심플하게 제목을 EQL 세 글자를 써서 활용하고 있다.
다른 경쟁사들의 현황을 확인하면 패션 관련된 키워드를 활용하여 15~20자 위주로 구성하고 있는 것을 확인할 수 있다.
EQL의 뒷부분에 키워드 세트 A를 바탕으로 아래와 같이 키워드를 추가하고 글자 수를 늘려 볼 수 있다.
e.g. EQL - 한섬의 브랜드 패션 온라인 셀렉트샵
제목 다음으로 가중치를 가장 많이 갖는 영역으로
간단한 설명의 키워드는 검색 알고리즘에서 가중치가 높기 때문에 키워드를 추가하여 앱이 스토어 내에서 노출을 확장할 수 있도록 한다.
가능한 80자를 모두 사용하는 것이 좋다.
첫 문단인 처음 255자에 관심을 끌 수 있도록 작성해야 한다.
대부분의 사용자는 더보기를 눌러 전체 설명을 읽지 않을 확률이 크기 때문에 요점을 직접적으로 나타내는 것이 좋다.
현재 EQL는 EQL의 브랜딩 방향성을 설명하는 글로 첫 문단을 활용하고 있다.
[About EQL]
WE ARE ALL EQL!
EQL은 EQUAL의 철자를 축약한 신조어로, 어떠한 편견이나 선입견 없이 자유롭게 표현할 수 있는 패션을 지지하는 편집숍입니다.
나를 규정짓기보다는 각자의 개성을 중심으로 한 자신만의 고유한 스타일로 재해석하는 우리를 기대합니다.
무신사와 포스티에서는 첫 문단을 ‘할인 쿠폰’, ‘정품 인증’, ‘무료배송’과 같은 구매자가 관심을 가질 만한 키워드를 첫 문단에 배치하고 있다.
국내 최대 온라인 패션 스토어, 무신사(MUSINSA)
럭셔리 브랜드부터 컨템포러리, 영캐주얼, 스포츠 브랜드까지
다양한 브랜드 패션을 지금 무신사에서 만나보세요!
■ 매일 쏟아지는 할인 쿠폰 및 등급별 할인 혜택
■ 브랜드 패션 대표 플랫폼, 100% 정품 인증
■ 전 상품 무료배송, 패션 특화 쇼핑 서비스·기능
■ 국내·외 패션 트렌드와 믿을 수 있는 상품 후기 제공
백화점 브랜드 100% 정품! 매일 새로운 할인소식이 팡팡!
이제 백화점 가지말고 포스티로 편하게 쇼핑하세요.
1. 전 상품, 100% 정품 인증
정품일까? 걱정은 하지 마세요.
모든 브랜드 본사와 직접 계약하여 본사 상품만 판매해요.
2. 전 상품, 무료 배송
하나만 사도, 만 원짜리 제품을 사도 무조건 무료배송이에요.
작지만 부담되는 배송비 없이 마음껏 쇼핑할 수 있어요.
긴 설명 항목에서 두 번째로 고려해야 할 것은 키워드 밀도이다.
키워드 밀도는 키워드 빈도라고도 하는데 이 수치는 기본적으로 전체 단어 수와 비교하여 웹페이지 내에서 특정 키워드의 수를 표시하는 숫자이다.
즉 “긴 설명에서 주요 키워드가 몇 번이나 반복 등장하느냐”를 뜻한다.
위에서 추출한 주요 키워드 세트의 키워드를 계속해서 반복 활용하는 것이 중요하다.
앱 평점 및 리뷰는 유저가 구글 플레이 스토어에서 앱 상품 페이지에 남길 수 있는 별 1~5개와 개별 댓글을 뜻한다.
구글 플레이 스토어에서는 리뷰에 작성된 키워드 또한 키워드 랭킹에 영향을 주는 요소이다.
앱 서비스와 연관성이 높고 긍정적인 리뷰가 달릴 수 있도록 유도 하는 것이 좋다.
키워드 랭킹과는 별개로 메인 페이지에서 보이는 리뷰와 평점은 설치수에 큰 영향을 줄 수 있기 때문에 지속적으로 리뷰를 관리하는 것이 좋다.
무신사, 29cm, Posty와 비교했을 때 EQL의 평점 4~5점은 19%, 1~2점 76%로 부정적 리뷰가 절반 이상을 차지한다.
리뷰 및 평점이 낮은데, 이 때는 리뷰를 확인하고 부정적 키워드를 확인한다.
[참고] Apptweak 데이터 기준으로 현재 평점 및 평가 수와 다를 수 있음.
위와 같이 보통 앱 기능구현에 대한 부정적 리뷰가 많았다.
정렬 풀림 문제는 최근 업데이트를 통해 해결한 것 같은데
이렇게 기능에 대한 부정적 리뷰는 ASO뿐만 아니라 오가닉 설치수에도 매우 부정적인 영향을 끼칠 수 있으므로 리뷰 API 등을 추가하여 리뷰를 독려하기보다 문제점을 파악한 뒤 해결책을 찾는 것이 우선이다.
반면에 유저들의 긍정적인 리뷰에 반복적으로 등장하는 입점 브랜드의 퀄리티
는 패션 앱으로써 큰 장점이므로 위처럼 키워드 세트를 지속적으로 발굴하고 부정적인 리뷰를 참고하여 ASO 최적화 진행하면 오가닉 유저 수를 더 확충시킬 수 있을 것이다.
Improved app quality and discovery on Google Play
March 25, 2024
마티니 Growth 팀은 고객사의 마케팅 스택, 데이터 분석환경 및 채널 유입 경로를 점검하며, 데이터 분석을 통한 인사이트로 비즈니스 성장을 위한 전략을 수립합니다.
Growth 팀에는 블랭크코퍼레이션 그로스 리더와 핏펫 퍼포먼스 마케팅 팀장, 매드업 AE를 맡았던 이재철 리더를 포함, 한국 신용 데이터, 윙잇, 버즈빌 등에서 경험을 쌓은 Growth 전문 인재들이 함께하고 있는데요,
Growth 팀의 시작부터 팀 빌딩과 프로젝트를 이끌고 있는 이재철님께, 마티니만의 특별한 점과 그로스 마케터의 커리어, Growth 팀의 일하는 방식과 성장의 지점에 대해 들어보는 시간을 가졌습니다.
마티니 Growth 팀 리더 재철님과의 이야기를 시작해보겠습니다.
안녕하세요. 마티니 Growth 팀 이재철입니다. 마티니 Growth 팀의 리더를 맡아 팀을 리딩하며 고객사들과 비즈니스 성장을 함께하고 있습니다.
마티니에 함께하게 된 이유는 마티니 대표 선규님의 제안 때문이었는데요. 마티니에 오기 전 그로스 팀장으로 일하고 있었는데, 마티니의 비즈니스와 조직을 설계하는 단계에서 오너십을 가진 그로스 리더 자리를 제안받았습니다. 컨설팅사라면 그로스에 대한 전문적인 지식을 가지고 있는 상태에서 비즈니스가 처한 상황을 진단하고 솔루션을 제안해야 하기 때문에 스스로 부족한 점을 더 깊고 체계적으로 배우고 싶었는데, 선규님의 ‘공부를 할 수 있게 해 주겠다.’는 말에 합류를 결정했습니다. 그로스 업무를 하며 가장 필요한 건 많은 케이스를 보는 건데 마티니의 다양한 케이스와 데이터를 심도 있게 볼 수 있는 환경에서 고객사와 함께 성장할 수 있겠다고 생각했어요.
시장 상황과 마티니의 방향성이 잘 맞았다고 생각해요. 지금까지 시장에서 특히 스타트업 기업들의 주된 관심사는 유저 획득이었습니다. 퍼포먼스 마케팅 측면에 초점이 맞춰져 있었죠. 이제는 비즈니스의 가치를 측정하는 기준이 유저 볼륨과 시장의 파이를 넘어, 그 유저로 매출을 얼마나 내는 지로 화두가 바뀌었어요. 유저를 획득한 후 어떻게 우리 브랜드 안에 잘 머물게 할지, 어떻게 더 많은 매출을 낼 지에 대한 관점이 중요한데요. 프레임이 변화하고 있는 상황에서 마티니의 퍼포먼스마케팅, CRM, Growth 팀이 유기적으로 일하는 비즈니스 모델이 시장을 선도적으로 이끌고 있다고 생각해요.
마티니 그로스팀은 특별해야 한다는 생각이 있었어요. 처음 시작부터 남달랐으면 좋겠다는 생각에 합류하는 온보딩 과정에서 학습할 만한 것들을 많이 고민했어요. 두 달 동안 Growth 팀은 원맨 팀으로, 저 혼자 합류할 팀원들을 위해 온보딩 자료를 만드는데 온전히 고민했습니다. 보통 책 한 권 만들 때 10만 자 정도가 쓰인다는 데요, 제가 온보딩 자료에 15만 자를 썼더라고요. (웃음) 온보딩 프로세스는 총 day 1부터 day 10까지에요. 정말 교재처럼 이론도 있고, 실습 과제도 넣고, 지금도 계속 업데이트를 하고 있어요~~(처음 합류한 분들은 양이 너무 많아서 day 3때부터 힘들어하기 시작하시는데..).~~
Growth 팀은 공유회나 회고 등 함께 스터디 하고 성장하는 프로그램이 많은데요, 많을 때는 한 분이 하루에 4~5개 스터디를 했던 적도 있었어요. “수강신청 실패한 대학교 1학년이 된 것 같다.”는 말도 남겼는데요, (웃음) 이게 Growth 팀의 문화기도 해요. 데이터를 가지고 할 수 있는 모든 영역을 다뤄야 하는데, 다양한 영역들에 대한 기본 이해가 있다면 더 쉽게 그로스를 할 수 있어요. 그래서 혼자서는 할 수는 없고, 여러 영역들을 쪼개서 각자 공부한 것들을 나누고 있는데요. Growth 팀 내에 그로스 매니저, 데이터 분석가, 인테그레이션 엔지니어가 있는데 세 영역의 팀원들이 각자 배우고 있는 영역을 공부하고 나누면서 함께 성장하길 기대하고 있어요.
시작은 마케팅 대행사 경험을 거쳐 핏펫이라는 기업의 퍼포먼스 마케팅 담당을 맡았었던 때로 거슬러 올라가는데요. 당시 인원이 한 20명 정도 되는 곳이었는데, 비즈니스에서 전체 데이터에 대한 이해가 있는 곳이 퍼포먼스 마케팅 파트밖에 없었어요. 실제 광고를 집행하고 고객들에게 반응을 얻어서 얼마나 매출이 나오는지, 어떤 상품이 반응이 좋은 지 등 사업 전반의 흐름을 보여주는 게 퍼포먼스 마케팅으로부터 시작되다 보니 모든 비즈니스 구성원들이 저에게 미팅과 업무를 요청하러 왔었어요. 그러다 보니 담당은 퍼포먼스 마케팅이었지만 온/오프라인 유통, 커머스, MD, SCM, 상품기획 팀 등 모든 팀과 TF를 했고, 그 때는 당연히 저 밖에 전체 데이터를 모르다 보니 모든 팀과 업무를 진행하는게 맞다고 생각했는데, 돌이켜 보니 그 과정 자체가 지금 하고 있는 ‘그로스’더라고요. 그로스의 정의가 특별한 건 아니에요. 데이터를 가지고 비즈니스를 성장시킬 수 있는 모든 영역에서 모든 역량을 다 하는 거죠.
처음 퍼포먼스 마케팅을 했을 때에는 비즈니스의 앞 단에서 유저를 획득하는 것에만 관심을 가졌는데, 퍼포먼스 마케팅만으로는 비즈니스 성장이 안 되는 지점들이 있었어요. 왜 그런가 찾다 보니, 들어온 고객들에게 관심을 가지는 부분까지 고민해야겠다는 점을 깨달았어요. 어떤 유저인지에 따라서 그 이후 단계가 달라지니까요. 그렇게 영역을 넓히다 보니 모든 비즈니스 영역을 다루게 되었고, 스스로 ‘그로스가 재밌다.’ 깨닫는 순간이 있었어요. 획득된 유저가 우리 서비스에 무엇 때문에 진입하게 되었는지, 그게 상품인지, 브랜드인지, 배송 상태인지 등. 다양한 관점들을 아우르며 분석하는 것에 흥미를 느꼈고요.
다양한 것에 관심과 호기심을 가지는 것이 가장 중요한 부분이라 생각해요. 그로스 마케터가 해야 할 일은 현재 상황을 진단하고 가설을 세우는 것인데요. ‘이 상황이 왜 나왔을지?’ Why에 대한 물음을 가장 많이 던져야 해요. 비즈니스와 서비스가 안정적인 상황에서도 호기심을 가지고 상황을 다르게 해석하려고 뒤집어 보는 것 자체가 능력이라고 할 수 있어요.
마티니 Growth 팀에서 제일 중요한 건 회고와 공부, 공유하는 문화에요. 매일 슬랙에서 오후 6시에 ‘데일리 회고 봇’이 메시지를 보내와요. ‘오늘은 어땠는지, 오늘을 점수로 표현하면 몇 점인지’ 등을 묻는 간단한 질문들인데요, 데이터를 노션으로 연동해 놔서 모든 팀원들이 모두의 ‘데일리 회고’를 볼 수 있어요. 저 같은 경우에는 팀원들과 1on1을 하기 전에 단서를 얻을 수 있고, 팀원들의 경우에는 각자 부족했던 것을 확인하고 소통이 원활해지기도 하고요.
매주 한 번씩 공유회도 하는데, 한 명씩 돌아가면서 그 주에 배웠던 것들이나 책, 아티클을 읽고 공유하는 시간이에요. 어떤 주제든 상관없이 30분~1시간 정도 진행하고, 각자의 방식으로 조금 덜 딱딱하게 운영하기 위해 카훗 등 퀴즈 방식으로 진행을 하기도 해요. 자기 순서가 몇 주 지나야 돌아오니까 부담이 덜하기도 하고, 개인과 Growth 팀의 성장을 위해 필요한 문화라는 점에 대해 모두가 공감하고 있어요.
기본적인 역량이나 경험을 안 볼 수는 없지만 우선순위는 오히려 낮았고요, 그로스는 배워야 할 영역이 너무도 많다 보니 러닝 커브가 있는지를 조금 더 봤어요. 다른 영역에 대해 열린 마음이 있는지, 호기심이 있는지요. 기존에 본인이 가지고 있던 건 사실 금방 고갈되거든요. 새로운 것을 더 빨리 받아들일 수 있는 사람이 필요했어요.
Growth 팀의 역할 차원에서 보면, 크게 세 가지의 직군의 팀원들이 필요하다고 생각했는데요. 데이터 파이프라인을 구축하고 마케팅 솔루션을 도입하는 데 필요한 엔지니어적 역량, 데이터 분석과 시각화에 특화된 분석가적 역량, 그리고 인사이트를 도출하고 전체적인 프로젝트를 담당하는 PM의 역량이에요. 각각 Integration Engineer, Data Analyst, Growth Manager라는 직무로 Growth 팀을 이루고 있어요.
가장 큰 장점은 다양한 산업군의 고객사 데이터를 볼 수 있는 점이에요. 인하우스 마케터라면 본인이 맡은 회사의 데이터만 볼 수 있고, 퍼포먼스 마케팅 대행사면 서드파티로 들어오는 일부 데이터만 볼 수 있는데요, 마티니 Growth 팀은 고객사 전체의 데이터를 함께 보고 다양한 관점에서 다양한 영역에 있는 분들과 고민하고 있어요. 의사의 역량 중 가장 중요한 것이 임상 경험이라고 하잖아요? 그로스 마케터도 마찬가지에요. 그로스 마케터로 성장하려면 실제 회사의 데이터를 많이 보는 게 중요한데 마티니 Growth 팀은 다양한 케이스들을 접할 수 있어서 특별하다고 생각해요.
저는 Growth 팀 팀원들 모두 업계에서 찾는 마케터로 성장하면 좋겠고, 팀은 오래도록 건강함을 갖춘 ‘좋은 팀’이 되었으면 해요. 사실 ‘좋은 팀’은 하나의 정량/정성적 지표로 판단할 수 없다 보니 애매한 표현일 수 있는데요, ‘좋은 팀’이라 할 수 있는 신호 중 하나가 ‘누구든 자유롭게 의견 교환을 할 수 있는 분위기인가?’라고 생각해요. 의견을 자유롭게 내고, 건강한 피드백을 주고받는 관계가 형성되는 게 좋은 팀이라고 보는데, 건강한 피드백이 되려면 일단 배경 지식도 있어야 하고 서로의 분야에 대해 충분히 공감해야 하죠. 많은 케이스를 가지고 있으면서 서로를 배려하고 의견 교환이 자유로운 팀을 만들고 싶어요.
어제의 회고봇에 어떤 내용을 쓰셨냐는 질문에, 재철님은 스스로에게 3.5점을 주며, ‘업무가 바쁘다 보니 Growth 팀이 가져야 할 뚜렷한 방향성을 잊고 있었던 것 같다며, 잊고 있었던 점들을 다시 돌아보는 계기가 되는 하루였다.’는 말을 남기셨는데요.
다양한 분야에 대한 호기심과 성장하고 싶은 니즈를 가진, 마티니 Growth 팀의 문화에 공감하는 분들을 기다립니다.
February 28, 2024
비즈니스 환경에서 데이터 활용은 필수다. 전략적으로 활용해야 할 이유 역시 분명하다. 더 나은 의사결정, 인사이트 획득, 업무 효율 제고, 예측 가능성 향상 등 비즈니스 전 영역에서 데이터가 활용돼서다. 기업은 방대한 데이터를 수집한 후 분석한다. 분석된 데이터는 시장 동향, 트렌드, 고객 요구 등 경쟁력 강화를 위해 전략적으로 활용된다.
데이터는 의사결정 속도를 높이고, 결과에 가장 근접한 예측 값을 도출한다. 잠재적 가치를 이끌어 내고, 경쟁력을 한층 더 높이기 위한 핵심이다. 즉, 마케터에게 ‘데이터 활용’과 ‘데이터 분류 체계 정립’은 필수 불가결한 요소다.
데이터 분류 체계는 세 단계를 거친다. 먼저 데이터를 수집한다. 수집된 데이터를 체계적으로 정리 후 분류한다. 마지막으로 분류된 데이터의 규칙을 정의한다. ‘수집 – 분류(정리) – 정의’로 이어지는 것이 일반적이다.
이해를 돕기 위한 예를 들면 다음과 같다. 상품 혹은 브랜드를 분석한다. 이때 상품 옵션과 고객 구매 이력이 반드시 고려돼야 한다. 구매 분석 시엔 연속적인 고객 행동을 파악하기 위한 흐름의 이해가 필요하고, 기민한 분석을 위한 데이터 분류 체계가 정립돼 있어야 한다. 잘못된 데이터가 기반이라면, 나쁜 결과가 초래된다(Trash In Trash out).
데이터는 일종의 외현적 표상이다. 단순 수집만으로는 정확한 정보를 도출할 수 없다. 인사이트는 반드시 분석으로 표출된다. 분석된 데이터의 체계적인 분류도 필수다. 빅데이터 대홍수에 휩쓸리지 않고, 적절한 데이터를 선별해 정확하게 이해한 후 활용하기 위함이다. 전략적 활용을 위해선 방대한 양의 데이터를 체계적으로 정리하고 분류해야 하는 이유이기도 하다.
체계적으로 정의된 데이터는 효과적인 마케팅 전략으로 이어진다. 연령, 성별, 구매 이력 등으로 세분화된 데이터는 고객 별 최적화, 고객 별 맞춤형 캠페인 설계와 진행이 가능해서다.
데이터 정확성과 분석 결과 신뢰성은 비례한다. 많은 데이터를 보유하고 있다고 해서 문제가 쉽게 해결되지 않는다. 정확한 데이터만이 신뢰할 수 있는 결과를 도출한다. 전문가를 고용하거나 고가의 분석 솔루션을 도입할지라도 데이터 분류 체계가 체계적이지 않으면 결코 좋은 결과를 얻을 수 없다. 전문가의 실력이 발휘될 수도 없고, 솔루션 효과를 입증할 수도 없다. 체계적인 데이터를 전략적으로 활용할 수 있는 전문가가 결국 더 큰 가치를 창출한다.
데이터 분류 체계는 전략적 의사결정으로 이어진다. 산업군을 막론하고 데이터 분류 체계가 중요한 이유다. 초기 비즈니스와 스케일업을 앞둔 시점이 중요한 것처럼 데이터 분류 체계 시 ‘데이터 수집을 시작할 때’ 그리고 ‘더 큰 규모의 데이터를 수집해야 할 때’ 더욱 세심한 주의가 요구된다.
수집, 분류, 관리 모두 데이터 분류 체계에 속한다. 어떤 데이터를 어떻게 수집할지 정확한 계획을 세우는 것이 데이터 분류 체계를 만드는 첫 단계다. 온라인 쇼핑몰에 관한 데이터로 가정했을 때 고객의 클릭 패턴, 구매 이력, 검색 행동 등이 이에 해당한다. 고객 선호도와 행동 분석에 관한 정보가 핵심이다.
수집 후 체계적으로 분류된 데이터는 퍼포먼스 마케팅, CRM, 제품 개발 등 비즈니스 전 영역에서 활용된다. 고객 선호도를 통해 행동을 예측하는 등 효과적인 전략 수립이 가능하다. 데이터 분류 체계는 전략적 의사결정을 가능하게 하는 중요 요소다.
분류와 더불어 체계적인 관리도 필요하다. 정확성과 보안 유지는 필수다. 정보 보호는 고객들의 신뢰로 직결된다. 데이터 분석 도구와 숙련된 기술은 인사이트의 가치를 높인다. 데이터 시각화 도구는 이해도를 높여 보다 나은 의사결정을 할 수 있도록 돕는다.
데이터를 기반으로 한 의사결정 문화를 조직 내에 정착시키는 것도 매우 중요하다. 직원 개개인의 이해도를 높인 후 데이터를 기반으로 한 의사결정은 조직의 데이터 활용 능력으로 연결돼 기업 경쟁력을 높이는 자원이 된다. 다시 정리하면 기업에서 데이터 기반 의사소통이 필요한 이유는 직감에 의존한 결정을 피할 수 있고, 시장 트렌드를 미리 예측할 수 있어서다.
풍요의 시대다. 새로운 물건은 교체품이나 대체제로 필요한 경우가 대부분이다. 마케팅 시장도 마찬가지다. 새롭고 창의적인 캠페인이 넘쳐난다. 이러한 세상에서 데이터의 가치는 더욱 빛을 발한다. 틈새 시장을 공략하고, 새로운 땅을 개척하기 위해 ‘데이터 활용’은 필수다. 숫자와 그래프로 빼곡한 엑셀시트를 꼼꼼하게 살피며 정확한 이해가 필요한 이유다.
석유는 중요한 에너지원이지만 적절하게 활용하지 않으면 가치를 얻을 수 없다. 석유를 에너지로 전환하기 위한 과정을 거쳐야만 효용가치가 발휘된다. 석유가 전환 과정을 거쳐 에너지가 되듯 데이터는 체계적인 분류와 분석을 통해 인사이트로 전환된다. 즉, 데이터 분류 체계는 비즈니스 성공을 위한 기반인 셈이다.
February 26, 2024
멤버십 시스템은 고객 충성도를 높이고, 장기적인 고객관계를 구축하는데 중요한 역할을 합니다.
멤버십 프로그램은 고객에게 해당 사이트(/브랜드)의 충성도를 높이는 데 도움을 주며, 고객들은 이를 바탕으로 특별한 혜택과 서비스를 받게 됩니다.
(e.g: 할인, 포인트 적립, 프로모션 대상선정 등)
그 중 특히 패션 e커머스의 경우 멤버십 시스템은 고객 충성도와 장기적인 관계 구축에 핵심적인 역할을 합니다. 패션 e커머스에서 멤버십 시스템은 다음과 같은 중요성을 지닙니다.
RFM 분석이란, 고객을 최근 구매 시점(Recency), 구매 빈도(Frequency), 구매 금액(Monetary)을 기반으로 세분화하는 방법입니다.
RFM 분석은 고객이 얼마나 가치 있는 고객인지를 평가하는데 사용됩니다.
RFM 분석을 통해 고객을 다양한 그룹으로 그룹화하고, 각 그룹에 맞는 맞춤형 전략을 수립할 수 있습니다.
(e.g: 최근에 자주 높은 금액을 지출하는 고객 : 보상 제공, 오랫동안 구매를 하지 않은 고객: 재방문/재구매 프로모션 제공)
이러한 고객 세분화는 마케팅의 효율성을 높이고 고객 만족도를 증가시키는데 도움을 줄 수 있습니다.
멤버십과 RFM 모두 고객의 행동과 고객의 가치를 이해하는데 중요한 분석 방법입니다.
그렇기 때문에 이 두 방법론을 함께 사용한다면, 보다 정밀한 고객 세분화가 가능하며 이를 통해 더욱 효과적인 고객 관리 및 맞춤형 마케팅 전략을 수립할 수 있습니다.
등급 점수 계산 방법: 최근 5년간 누적 구매 금액 + 포인트
등급 점수 계산 방법: 최근 6개월간 누적 구매 금액
등급 점수 계산 방법: 최근 6개월간 누적 구매 상품건수 및 금액
저희 회사에서 분석하고 있는 e커머스 패션 플랫폼은 현재 멤버십 설계가 되어있지 않습니다.
멤버십 설계 없이 필요에 따라 프로모션을 진행하며 고객들에게 동일하게 혜택을 제공하고 있습니다.
이렇게 계속해서 멤버십 설계없이 사이트를 운영할 경우 발생할 수 있는 문제점은 다음과 같습니다.
데이터가 고객사의 DB에 존재하기 때문에 자유로운 접근이 어려웠습니다.
따라서 RFM 분석을 시작하기 앞서, 필요한 데이터를 정의하고 해당 데이터를 고객사에 요청했습니다.
그 후, 전달받은 데이터를 Amplitude(PA Tool)의 데이터와 비교하여 데이터의 정합성을 확인했습니다.
❓ PA Tool(Product Analytics tool)이란?
: 제품 분석 도구를 말하며, 제품이나 서비스의 사용자 행동 데이터를 수집, 분석하여 제품 개선,
사용자 경험 최적화, 전략 수립 등에 도움을 주는 소프트웨어를 말합니다.
정합성 확인을 진행한 최종 DB 데이터(주문 데이터)를 바탕으로 데이터 형식 변환을 진행했습니다.
RFM분석을 위해서는 고객 기준 데이터가 필요하기 때문에 user_id 기준으로 유저별 ‘Recency(최근 구매일자)’, ‘Frequency(주문빈도)’, ‘Monetary(누적 주문액)’을 계산했습니다.
그 후, 적절한 RFM scoring 기준을 확인하기 위해 유저 분포를 확인했습니다. 유저를 10%, 5%, 1% 기준으로 구분하고 항목별 분포를 확인했습니다.
EDA에서 확인한 유저별 분포를 바탕으로 이상치를 제거했습니다.
전체 유저의 40%정도가 구매 이후 5개월 이상이 경과하였고, 70%정도가 구매횟수가 1회였기 때문에 Recency(최근 구매일자)와 Frequency(주문빈도)를 이상치 제거 기준으로
설정할 수 없다고 판단하였습니다. 따라서 최종 이상치 제거의 기준은 Monetary(누적 주문액)로 설정했습니다.
RFM 분석 초기에는 일반적인 이상치 제거 기준은 IQR(4분위수), 표준편차 등의 기준으로 이상치를 제거하고자 시도했으나,
해당 분석의 목적이 멤버십 설계를 고려한 RFM 분석이기 때문에 상위 유저가 중요하다는 점을 고려하여 이상치 제거의 기준을 ‘N만원 이상 유저’로 설정했습니다.
이상치 제거의 기준을 1) M기준 M1만원 이상, 2) M기준 M2만원 이상, 3) M기준 M3만원 이상으로 설정하고, 이상치의 갯수 및 비율을 확인했습니다.
option1. M이 M1만원 이상 유저수 n1명 (누적비율 0.17%)
option2. M이 M2만원 이상 유저수 n2명 (누적비율 0.09%)
option3. M이 M3만원 이상 유저수 n3명 (누적비율 0.05%)
해당 과정을 통해 최종적으로 이상치의 기준을 “option3”로 설정했습니다.
다음으로 각 R,F,M 항목별로 점수를 구해주었습니다. 점수를 산출하는 방식은 다양합니다. 해
당 분석에서는 작업시간 및 편의성 등의 여러 요건을 고려하여 엑셀을 통해 분석을 진행했습니다. 엑셀을 통한 RFM 산출 과정은 해당 블로그를 참고했습니다.
(출처: 엑셀을 활용한 RFM 고객가치 분석방법 (링크))
R과 M는 “비율(%)”을 기준으로, F는 전체 구매회원 중 약 80%가 1회 구매인 것을 고려하여 “구매횟수”를 기준으로 설정했습니다.
R Score, M Score을 계산하기 위한 비율(%)기준은 다음과 같습니다. 전체를 1~5까지로 구분한 후, 분모를 1~5까지 더한 값으로, 분자를 점수별 내림차순 기준 값(ex. 1일때 5, 2일때 4)으로 설정했습니다. 해당 방식으로 점수별 비율을 계산하면 다음과 같습니다.
F Score를 계산하기 위한 구매횟수 기준은 다음과 같습니다. 1,2,3,4,5회 이상으로 구분했습니다.
예를 한 번 들어보겠습니다. 주문 데이터에 10명의 유저가 구매한 이력이 있다고 가정해봅시다.
앞서 이야기한 RFM scoring을 적용해보면 다음과 같이 계산됩니다.
RFM 점수가 산출되었다면, 각 점수별로 유저들을 세분화(User Segmenation)하는 과정이 필요합니다. RFM 분석 시 유저들을 세분화하는 여러가지 이유가 존재합니다.
먼저 유저를 세분화하므로써 각 그룹별 맞춤형 마케팅 전략을 개발하여 고객 만족도와 충성도를 향상시킬 수 있습니다.
또한 이탈 위험 고객들을 파악하고 이들에게 재활성화 캠페인을 진행하므로써 적절한 위험 관리를 할 수 있습니다.
유저 세분화 그룹은 해당 사이트를 참고했습니다. (출처: RFM Segmentation (링크))
최종적으로 도출된 점수별 유저 세분화 그룹 및 각 그룹에 대한 특징은 아래와 같습니다.
RFM score를 멤버십 구간 설정에 활용하기 위해 R,F,M 각 요소별 가중치를 계산했습니다. 가중치를 계산하는 이유는 고객의 가치를 보다 정확하게 평가하기 위해서입니다.
RFM의 각 요소는 고객의 충성도 및 구매 가능성을 반영합니다. 그러나 모든 요소가 모든 비즈니스에 동일한 중요도를 나타내지 않습니다.
예를 들어, 패션 커머스의 경우 트렌드가 빠르게 변함에 따라 고객의 최신 패션 트렌드에 대한 관심과 구매 의사를 파악하는 것이 중요하므로 R(최근 구매일자)이 상대적으로 높은
중요도를 갖습니다. 반면 럭셔리 상품을 취급하는 커머스의 경우 고객의 구매 금액이 매우 중요하므로 M(누적 주문액)이 상대적으로 높은 중요도를 갖습니다.
엑셀을 통해 가중치를 구하는 방법으로는 크게 2가지가 있습니다.
첫째, 매출 기여효과의 합계를 통한 가중치 구하기와 둘째, 매출 기여효과와 매출액의 상관관계를 통한 가중치 구하기가 이에 해당합니다.
1. 가중치1: 매출 기여효과의 합계를 통한 가중치를 구하는 방식은 구매 금액이 높을수록 더 높은 점수를 받는 방식으로, 매출액이 높을 경우, 즉 M의 점수가 높을경우 RFM 지수가 높게 나타납니다. 해당 방식은 업종 특성상 구매주기가 길거나, 구매 금액이 미치는 영향도가 큰 업종에서 유의미한 방식입니다.
2. 가중치2: 매출 기여효과와 매출액의 상관관계를 통한 가중치를 구하는 방식은 각 R/F/M Class별 기여효과 수치와 매출액의 상관계수를 구하여 그 값의 비중대로 가중치를 정하는 방식으로, 1번 방식과 달리 M 이외의 R과 F의 요소도 어느 정도 고려된다고 볼 수 있습니다.
해당 방식은 업종 특성상 반복 구매가 자주 일어나거나, 고객의 활동, 구매 스펙트럼이 넓은 업종에서 유의미한 방식입니다.
가중치1과 가중치2 기준 RFM 항목별 가중치를 확인한 후, 최종적으로 M(누적 구매액)의 비중이 높은 가중치1을 선택했습니다.
그 후, 가중치를 통해 도출된 최종 스코어를 기준으로 최종 스코어별 비율 및 R,F,M 분포(평균,최대,최소)를 확인했습니다.
1차적으로 스코어별 분포를 확인하고, R보다는 F, R/F보다는 M의 중요도를 반영하는 방향으로 새로운 가중치를 생성했습니다.
그 후, 이를 바탕으로 도출된 스코어별 비율 및 R,F,M 분포를 재확인하는 과정을 거쳤습니다.
이러한 과정을 거쳐 최종적으로 RFM의 가중치를 0.1:0.2:0.7으로 확정하였습니다.
멤버십은 RFM의 score을 기준으로 구간을 설정한 후, M(누적구매액)으로 기준을 변경해주었습니다.
RFM score를 반영한 최종적은 멤버십 기준은 다음과 같습니다.
🪜 멤버십 기준 (*최근 6개월 1회 이상 구매 유저의 누적 구매액 기준)
· 이상치: M4만원 이상 (0.035%)
· VVIP: M3만원 이상 M4만원 미만 (1%)
· VIP: M2만원 이상 M3만원 미만 (7.4%)
· CREW: M1만원 이상 M2만원 미만 (29.3%)
· WOK: M1만원 미만 (62%)
· NEW/CHURN: 미구매
매출을 증가시키기 위해서는 크게 두 가지 방법이 존재하는데, 주문수를 올리거나 즉, 주문빈도를 높이거나, 건단가를 높이는 방식이 이에 해당됩니다.
매출을 증가시키기 위해 각 멤버십별 유저들의 주문빈도 및 객단가를 높일 수 있도록 멤버십 설계를 바탕으로 구간별 특징을 파악하고, 멤버십 혜택을 설계했습니다.
먼저 Amplitude를 사용하여 각 구간 평균 주문수, 주문상품수, 객단가 및 건단가를 확인한 후, 이를 바탕으로 멤버십 구간별 특징을 파악했습니다.
이를 바탕으로 기존에 진행한 쿠폰 프로모션의 성과를 바탕으로 쿠폰의 효율을 예측한 후,
쿠폰 할인율에 따른 매출 증분율과 마진율을 확인하고 멤버십 구간별 쿠폰 혜택을 설계했습니다.
태블로(Tableau)를 통해 멤버십과 RFM 세분화를 바탕으로 대시보드를 구현했습니다.
해당 대시보드를 통해 멤버십 관련 정보(1. 멤버십 분포, 2. 월별 멤버십 비율, 3. R(최근 주문일자), 4.F(주문빈도) 5.M(누적주문액)) 및
RFM 관련 정보(6.RFM Segment 분포, 7.월별 RFM 비율)을 확인할 수 있습니다.
좌측 상단의 멤버십 버튼 클릭시 각 멤버십 단계에 해당하는 유저들이 필터링되어 표출됩니다.
이를 통해 멤버십별 분포 및 해당 멤버십에 해당하는 유저들의 RFM 세그먼트를 손쉽게 확인할 수 있습니다.
또한 좌측 상단의 필터를 통해 각 멤버십 및 RFM 세그먼트별 회원 수 및 매출액을 파악하고 이를 비교함으로써 종합적인 비즈니스 성과를 파악할 수 있습니다.
February 19, 2024
마지막 단계, '퍼널 완성하기'에서는 실제로 퍼널을 만드는 데 필요한 도구를 제공하며,
퍼널을 지속적으로 실험하고 개선해야 하는 필요성을 일러준다.
한 페이지의 헤드라인을 바꾸는 '작은 수정' 하나로 31.7%의 수익률을 얻는다면 믿겠는가?
"적절하게 활용된 하나의 퍼널이 있다면, 그 퍼널은 평생 노력한 것의 열 배보다도 더 가치가 있다."
'적절하게 활용된 하나의 퍼널'을 구축하는 과정이 결코 단조롭지 않을 것임을 명심해야 한다.
반드시 실패를 겪는다는 것을 염두에 두어라.
.
.
.
⌜마케팅 설계자⌟
퍼널을 선택하기 전 판매하고자 하는 상품(혹은 서비스)의 값을 매기고 적절한 가치 사다리 단계에 배치하라.
그리고 선택한 퍼널을 시각화해 보아라. 그다음은 간단하다.
클릭퍼널스로 ‘후크, 스토리, 제안’이 깃든 맞춤형 퍼널을 만들고 연속극 시퀀스가 가능한 후속 퍼널을 기획하라.
이제 시장에서 실험하면 된다.
[Step.1]
당신의 퍼널을 스케치하라.
"돌출 주문서를 사용할까?"
"상향 판매를 몇 번이나 넣을까?"
"하향판매를 굳이 넣어야 할까?"
"각 페이지의 후크는 무엇일까?"
"스토리는 무엇일까?"
"제안은 무엇일까?"
"각각에 넣을 제안에 매길 가격은 얼마일까?"
해당 퍼널에 각 페이지와 단계를 스케치하여
당신이 가장 먼저 '무엇'을 하려고 하는지 시각적으로 인지해야 한다.
[Step.2]
클릭퍼널스로 당신만의 세일즈 퍼널을 만들어보아라.
클릭퍼널스는 기업가나 CEO가 직접 사용할 수 있을 정도로 사용자 편의적이다.
'퍼널 마법사(Funnel Wizard)'가 당신을 친절히 안내해 줄 것이다.
[Step.3]
'페이지 에디터'로 맞춤형 퍼널을 만들어보아라.
'페이지 에디터'의 기본적인 작동 원리와 페이지 구성의 원리만 파악하면
비전문가인 당신도 언제든 맞춤형 페이지를 꾸밀 수 있다.
[Step.4]
후크, 스토리, 제안을 퍼널에 심어보아라.
당신이 떠올린 아이디어를 또 다른 누군가도 떠올린다.
그럴듯한 브랜딩과 화려한 디자인에 힘을 쏟기 전에,
방문자와의 연결성을 강화할 수 있는 진정성을 보여라.
[Step.5]
후속 퍼널을 만들어보아라.
퍼널을 스케치 하는 동시에 후속 퍼널의 계획도 포함해야 한다.
초기 퍼널이 후속 퍼널의 가치 사다리로 이어지는 매개체 역할을 하는 데 중요하다.
"잠재고객에게 이메일을 보낼 때 이 캐릭터에 어떤 매력적인 요소를 덧붙여야 할까?"
"'연속극 시퀀스'에서는 무슨 말을 해야 할까?"
"'사인필드 이메일'에서는 어떤 유형의 메시지를 담아서 보내야 할까?"
[Step.6]
이제 당신의 퍼널을 시장에서 실행하라.
몇 년 전만 해도 '적절한 퍼널' 하나를 구축하려면 전문가들로 구성된 팀이 두세 달 동안 매달려야 했다.
고민은 실행을 늦출 뿐이다. 당신의 퍼널을 시장에서 실험해 보고, 수정을 거쳐 '적절한 퍼널'을 완성하라.
연속적인 퍼널 사이에 후속 퍼널을 ‘다음 단계’로 포개라.
고객이 겪고 있는 문제를 ‘지금 바로’ 해결할 수 있는 매력적인 대안을 끊임없이 제시해야 한다.
다음 이미지는 '퍼널 포개기'의 예시이다.
첫 퍼널에 실패했다고 낙심하지 마라.
성공적인 실험을 위해 다만 악퍼널에서 구해진 것뿐이다.
초반 목표는 퍼널 내의 제품 가격 총액의 손익분기점으로 설정하고 손해를 본다 한들 개의치 말아라.
테스트가 끝나면 퍼널 평가 지표의 수치로 퍼널의 건전성을 평가하라.
당신의 퍼널이 손익분기점을 넘지 못했다면 반드시 문제는 후크나 스토리나 제안에 있다.
[퍼널 평가 지표]
퍼널의 총 매출액을 고객의 수로 나누면 ACV를 구할 수 있다.
(예를 들어 100명이 기록한 총매출액이 2,500달러이면 AVC는 25달러이다)
CPA > ACV : 퍼널이 잘못되었다.
CPA < ACV : 퍼널이 제대로 작동한다.
[당신의 점수]
ACV = 25.00달러
CPA = 20.00달러
[점수 결과]
수익: 5달러
당신의 퍼널이 제대로 작동한다.
[확장 전략]
수익성을 유지하는 한 최대한 많은 돈을 광고비로 지출해야 한다.
[1단계] '방문자의 온도'를 판정한다
당신이 세일즈 퍼널 속으로 맞아들이는 방문자가 뜨거운가, 따듯한가, 혹은 차가운가?
(오픈채널=뜨거움, 자사몰=따듯함, 차가움)
[2단계] '사전 프레임 브리지'를 설정한다
이 방문자의 유형을 기준으로 각각의 유형을 위해 어떤 사전 프레임 브리지를 만들어야 할까?
(내 브랜드의 이미지)
[3단계] '가입자를 추려낸다'
방문자들 가운데서 당신이 제안하는 무료 정보를 제공받는 대가로
자기 이메일 주소를 기꺼이 알려주는 사람은 누구인가?
[4단계] '구매자를 추려낸다'
사이트의 가입자 가운데서 당신이 제시하는 첫 번째 제안을 기꺼이 받아들여 신용카드를 꺼내는 사람은 누구인가?
[5단계] '적극적인 구매자를 추려낸다'
자기가 안고 있는 문제를 해결하기 위해서 기꺼이 더 많은 돈을 쓰겠다는 사람은 누구인가?
[6단계] '더 깊은 관계로 나아간다'
고객의 연락처 정보를 확보한 뒤 어떻게 하면 '매력적인 캐릭터'로 그들과 인간관계를 쌓아갈 수 있을까?
(관계 강화 + 추가 구매)
[7단계] '판매 환경을 바꾼다'
고객을 오프라인으로 유도해서 가치사다리의 높은 곳으로 올라가게 만들려면 어떻게 해야 할까? (판매채널 확장)
.
.
.
글을 마치며,
모든 변수를 관통했다고 자만하지 말 것.
나의 의견에 대한 지나친 긍정은 피해야 한다는 점을 기억하자.
“이 정도면 괜찮은 것 아닌가?” - 아니다.
MECE 기법을 통해 퍼널의 실패 요인을 줄여보는 것도 하나의 방법이다.
늘 마케팅엔 ‘정답’이 없다고 생각했다. 각자에게 맞는 퍼널핏이 있고
그것은 범용적이지 않은 각 개인의 것이라 여겨왔다.
그런데 이 책에서는 모든 마케팅에 적용 가능한 프레임 워크를 설명하고 있다.
'정답'은 아니지만 문제에 대한 개중 하나의 명확한 ‘해답’이 될 수 있는 가이드라고 생각한다.
도서 정보
February 12, 2024
고객과 관련된 헤드라인 쓰기에 통달하라. 당신이 진행하는 모든 과정에는 후킹한 헤드라인이 포함되어 있어야 할 것이다.
그 헤드라인이 당신의 잠재고객과의 구매 대화(buying conversation)가 되고 이것이 곧 당신의 매출 상향 프로젝트가 될 것이다.
”마케팅 그만하세요.”
“언제까지 2010년식 마케팅으로 2024년 시장을 장악할 수 있다고 믿으시겠어요? 마티니와 함께 2024년 마케팅 시작하세요.”
(‘그로스 해킹’이란 용어가 등장한 때가 2010년입니다.)
당신이 얼마나 매력적인 사람인지, 왜 매력적인 사람인지, 무엇을 매력적으로 이룬 사람인지,
어떻게 매력적으로 차별화된 서비스를 제공할 수 있는지를 하나의 강력한 스토리로 긴급히 제안하라.
[who]
“저는 마티니의 전문화된 일원이자, ㅇㅇ 프로젝트의 PM입니다.”
[what]
”1년이라는 마티니의 역사 속에서 함께한 단 3개월 만에 온라인 광고 시스템을 통달했으며, 그 덕에 그 누구도 풀지 못한 문제를 수없이 풀어왔습니다.
한 가지 재미있는 사실은! 모두 같은 고민 속에서 경쟁 중입니다만, ‘마티니 효과’를 얻고 나면 늘 다른 결과로 만족하더군요.”
[why]
”여러분의 제품이나 서비스가 훌륭함에도 불구하고, 또 이미 높은 판매량을 기록했음에도 비즈니스를 개선하거나 추가하는 일에는 여전히 미숙하다는 것을 잘 압니다. 쇠퇴기(혹은 적응기)에 접어들 시기가 예고 없이 다가올 때면 경쟁사에 대응할 만한 신규 전략을 늘 고민해야 하니까요. 그래서 문제가 뭐던가요? 소재? 카피? 광고비 지출액?
아니요. 장담컨대 여러분의 모든 예상이 빗나갈 만한 이유입니다.”
[how]
일명 ‘마티니 효과(Triple Effect)’라고도 하죠.
단 한 번의 결정으로 당신의 사업이 정체기에 머물지, 성장기로 나아갈지를 결정합니다.
마침 저희가 그 비밀을 오늘 참석하신 분들께만 몰래 공유드리려고 하거든요. 비밀은 지켜주셔야 합니다. 지금 당장 문의하세요!
마티니와의 여정을 간접 체험할 기회를 제공합니다.”
'마티니 효과(Martinee Effect)'란?
: Performance + Growth + CRM 통합 솔루션의 시너지 효과를 의미
[catch]
“마티니 설립 이래로 전례 없던 무료 상담 기회를 제공해 드리는 이유가 궁금하실 겁니다.
물론 앞으로도 있을지 모를 기회지만요. 마티니를 엿볼 기회를 드리고 나면 저희로서는 설득하는 과정이 한결 수월해집니다.
마티니의 풀퍼널 마케팅, 마티니의 5단계 전략, 마티니의 그로스 마케팅…
저희의 수많은 베스트 상품들을 한 데 진열하여 모든 분들께 설명드리기에는 너무나 많은 시간을 들여야 하기 때문입니다.
무료 체험을 진행하신 후 가려운 부분이 어디인지 적극적으로 일러주신다면 저희로서는 더욱 최적의 서비스를 제공해 드릴 수가 있습니다.”
[urgency]
"오늘 무료 상담 서비스를 신청하시는 분들께는 서비스의 버전을 업그레이드 할 수 있는 기회를 드립니다.
이 업그레이드 버전은 유료로 판매되고 있으며 장단하건대 실제 가격보다 훨씬 높은 가치가 있습니다. 현재 기준으로 여덟 분만 사전 신청 가능합니다.
기억하세요! 오늘 자정이 지나면 이 기회는 사라집니다."
[guarantee]
마티니는 당신에게 소중한 시간을 선물할 것을 보장합니다.
모든 과정 즉시 취소 가능하며 일정 조율은 최대 2회까지 가능합니다.
사전 신청 후 일정 조율, 혹은 취소 시 그 어떠한 페널티도 없으니 부담 없이 신청해 주세요!
[recap]
아래 링크를 클릭하여 마니티의 무료 상담 서비스를 신청해 주세요!
자정 이전에 신청하신 분들 한하여 강의 무료 초청권도 드린다는 사실, 잊지 마세요!
나만의 스타성을 뽐내고, 고객이 안고 있는 문제와 유사한 연속극 시퀀스를 풀어내어, 고객도 나만의 스토리의 주인공 될 수 있다는(혹은 더 나은) 미래를 꿈꾸게 하라.
이미 구매한 고객에게 ‘열린 순환고리(open loop)’를 유지하여 재구매를 유도하라.
재구매에 대한 보장과 명확한 근거가 핵심이다.
⌜Martinee knows ‘HOW’ (Series. 1)⌟
“당신에게만 제공하는 또 다른 ‘무료 상품’이 있습니다.
마티니의 노하우가 담긴 ⌜Secrets of Matinee⌟ 핵심 요약편 1권을 제공해 드립니다. 돈으로 환산할 수 없는 가치를 무료로 추가하세요.
수많은 고객사를 컨설팅하며 얻었던 알맹이만 담겨 있습니다.”
비밀의 5분의 1만을 풀고 호기심을 참지 못해 마티니에 문의를 할 수밖에 없는 보조품을 판매하자는 전략
[도입부]
도입부에서 90분 동안의 시선을 집중시킬 필살기를 내보인 후
[내용]
필살기의 전략과 전술을 제공한다.
[스택과 판매종결]
그리고 ‘앵커링 효과(anchoring)’를 염두에 둔 스택 슬라이드를 사용하여
고객이 얻을 수 있는 장점에 대해 연속 필살기를 날려라.
도입부: 17/100(%)
내용: 50/100(%)
스택과 판매종결: 33/100(%)
고객이 당신의 앞에 서기까지 겪었을 수많은 고난을 해결할 수 있는 완전한 신규 전략을 제시하라.
그리고 당신이 내세운 전략의 전술이 ‘무엇’인지 어깨너머 코칭하며 제안을 암시하라.
마지막으로 제안을 수락했을 때, 고객이 얻을 가치에 대한 희소성과 긴급성을 강조하며 가상의 소유 경험을 전달하라.
전문가로서 던지는 한 가지 후크와 세 가지 후속 질문으로 상대방의 답변을 이끌어내라.
먼저 전문가의 자질을 내비칠 수 있는 간략한 소개를 한다. 그리고 후속 질문을 이어가면 된다.
내/외부 목표를 이끌어내고 [1],
목표에 대한 장애물을 찾는 후속 질문을 하여 [2],
극복할 수 있는 가능성에 대해 묻는다 [3].
그리고 당신이 전문가이기 때문에 ‘당연히’ 해결해 줄 수 있다는 믿음을 심어주고 구매 의향을 묻는다.
(단, 마지막 질문을 던진 뒤 고객이 대답하기 전까지 절대 추가적인 말을 덧대지 말아야 한다)
[1차]
판매 설정자가 고객이 처한 상황을 파악하고 제안의 맛보기를 제공하는 동시에 ‘이 제안’이 고객의 ‘맞춤 솔루션’일 수밖에 없는 질문을 하라.
[2차]
판매 종결자는 판매 설정자가 이끌어냈던 답변을 더욱 강화해야 한다.
그리고 이 제안을 고객이 단지 ‘수락’하는 것이 아니라, 꿈의 고객을 자처하고 ‘요청’하도록 해야 한다.
February 8, 2024
'퍼널 설계하기' 목차에서는 여태껏 제시했던 간단한 예시와는 다르게
보다 상세한 나의 퍼널 전략 예시가 담겨있다.
단순히 읽는 데 그치지 않고 당신만의 전략으로 이어지는 성공의 비책이 되길 고대한다.
.
.
.
⌜마케팅 설계자⌟
스퀴즈 페이지의 잠재고객에게 ‘리드 마그넷’을 던져라.
그다음 단계의 감사 페이지로 넘어갔을 때 약속했던 ‘리드 마그넷’을 제공하고 이후 가치 사다리의 다음 단계를 제안하라.
버킷 질문에 따라 방문자들을 집단별로 구분하기 위한 설문을 진행하고, 당신이 ‘몰래’ 보낸 버킷 질문에 그들이 응답하면 그제야 ‘맞춤형 정보’를 제공하라.
'버킷 질문'이란?
: 최종 결과를 결정하는 질문
[Step.1] 설문조사 페이지
1. 마케팅에 대한 경험 및 이해 수준 파악 (마티니가 제공해야 할 서비스 업무 범위 파악)
“최적화된 솔루션을 제공하기 위한 질문입니다. 다음 5가지 설문에 간단히 답변해 주세요.”
Q1. "마케팅을 진행한 적이 있나요?"
"(option) 어떤 식으로 진행했나요?"
(e.g. 광고 대행사와의 협업, 자사 내부 마케팅 등)
Q2. "현재 겪고 있는 문제에 대한 원인이 무엇이라고 생각하나요?"
2. 마티니와의 Fit 확인하기
Q3. "최종 KPI는 무엇인가요?"
Q4. "마티니를 선택한 이유는 무엇인가요?"
3. 마티니가 집중해야 할 홍보 경로 파악
Q5. "마티니를 알게 된 경로는?"
[ㅇㅇ에게 가장 필요한 마케팅 비법 전수받기(CTA)]
Email: (xxxx@xxxxx.com)
[Step.2] 스퀴즈 페이지
스퀴즈 페이지: “ㅇㅇㅇ(고객사)에게 필요한 최상의 서비스를 분석 중입니다…”
[Step.3] 결과 페이지
“’ㅇㅇㅇ(고객사)’가 겪고 있는 다양한 유사 사례와 그들이 마티니와 함께 한 여정에서 극복한 성공 전략을 숨김없이 전송해 드렸습니다.”
“자, 마티니는 늘 제자리가 아닙니다. 수많은 여정을 지나 온 ‘오늘’의 마티니와 함께 하시겠습니까?”
고객들에게 제한된 제안을 하라. 긴박할수록 좋다.
[Step.1] 등록 페이지
"[MarFesta] 마티니가 그토록 숨겨왔던 ‘비밀’을 ㅇ월ㅇ일 ㅇㅇ시 단 2시간만 공개합니다.”
[Step.2] 특별 제안 페이지
“앞으로 2시간! Marfesta 맛보기 영상 무료 시청하기” [01:59:59]
[Step.3] 방송 페이지
“Live [마티니의 비밀 엿보기] 매출 8천 억 글로벌 기업조차 마티니가 절실했던 이유”
'후크', '스토리', '제안'에 기반한 매력적인 스토리와 매력적인 제안을 던져라.
즉 '호기심을 기반으로 하는 헤드라인'으로 후크를,
'나의 이야기가 담겨있는 영상'으로 스토리를,
'배송비 부담 무료 상품'으로 제안을 던져라.
[Step.1] 판매 페이지
거부할 수 없는 매력적인 전략을 구상하라. 당신만의 스토리든, 당신만의 다운셀링 전략이든.
[Step.2] 상향 페이지(n차)
고객에게 여지를 남기는 서비스를 순차적으로 제공하되, 실패에 대비한 하향판매 전략도 구사하라.
e.g. 모닝에서 벤츠 S클래스까지 간 ‘이왕이면’ 병 치료해 주기
[Step.3] 감사 페이지/오퍼월
감사한 마음을 전하는 동시에 ‘아직도 남은 것’이 있다는 것을 어필하라.
14일에서 30일 사이의 고객의 도전 기간을 설정하고 그들의 ‘참여 장소’에 도전 공간을 마련해 실시간 스트리밍(혹은 강연)을 하라.
당신의 베스트셀러 제품(혹은 서비스)을 메력적인 조건으로 제안하라.
프레젠테이션으로 하여금 거부할 수 없는 제안과 동시에 ‘스포일러 박스’를 통해 막간의 스포를 이용하라.
[판매페이지]
“2024년 BEST 마케팅, ‘마티니아이오’”
(썸네일 이미지에 마우스오버 시 동영상 미리보기(.gif)를 보여주는 강의 영상 자료 활용하기)
[(option) 돌출 주문서]
“잠깐만요! 지금 추가 결제를 하시면 10만 원 상당의 비공개 영상(’[마케팅, 그로스, CRM 믹스 전략]‘)을 시청하실 수 있습니다!"
팝업을 종료하신 이후에는 할인가 적용 불가합니다. (자물쇠 영상 내용 미리보기 포함)
[상향페이지]
다음에 있을 행사 사전 등록 (예상고객/잠재고객 사전 파악 > 맞춤형 강의)
“3월(명월) 마티니의 ‘믹스패널 부트캠프’에 사전 등록하시면 ”마티니의 ‘오픈 시크릿 강좌’ 1회 무료 시청권을 드립니다."
[감사페이지]
“2024년 BEST 마케팅, ‘마티니아이오’ 강의 수강권 등록이 완료되었습니다. 아래 상세 내역을 확인하시고 신청 정보가 올바르게 입력되었는지 확인해 주세요.”
”[Growth Marketing Summit 2024] 세미나 무료 사전 등록이 완료되었습니다. 아래 상세 내역을 확인하시고 신청 정보가 올바르게 입력되었는지 확인해 주세요.”
[마티니 컨설팅 문의 (Final Depth)]
"마티니에 대해 더 자세하게 알아보고 싶다면 지금 바로 문의하세요!"
그 어떠한 서비스라도 실시간 웨비나 퍼널을 눈 감고도 꿸 수 있다면 자동화된 웨비나 퍼널로 전환하라.
웨비나에 등록할 만한 헤드라인, 후킹한 예고편을 담은 랜딩 페이지, 실시간 웨비나를 진행한 이후 상/하향제품을 포함한 돌출 주문서,
그리고 재방송(replay) 웨비나라는 5단계를 철저히 준비하라.
(단, 재방송 웨비나는 단기간(혹은 단시간)의 기회여야 한다)
새로운 제품(혹은 서비스)을 출시할 때 무료 버전의 상품과 예고편을 함께 제시하라.
그리고 참여도를 점진적으로 높일 수 있는 네 개의 영상과 개중 마지막 영상에서는 공개 날짜와 시험 버전의 제품(혹은 서비스)을 제공하라.
[무료 워크숍 페이지]
믹스패널 부트캠프 참가 신청 페이지 (프로그램 소개 영상 / 혹은 상세페이지)
리드 마그넷을 제공하여 고객이 최초의 퍼널을 통과하도록 하라.
여기에서 마티니가 고객에게 제공하는 리드 마그넷은 부트캠프 활동 시 우수 참가자 요건을 충족하는 데 도움이 될 만한 최소한의 정보(믹스패널 가이드 기본편)이며, 마티니의 꿈의 고객은 프로그램 참가 전 스스로 참가 자격이 있는지 기꺼이 평가하고 싶을 것이다. 가이드에 기반한 '실력 평가하기' 페이지로 이동하게 하라.
[실력 평가하기]의 첫 번째 단계에서는 앞으로 전개될 과정에서 알게 될 모든 내용의 실전 문제도 포함되어 있어야 하며, 리드 마그넷에서는 극히 일부만 공개해야 한다.
[연속극 페이지(2-3)]
답안을 공개하고 믹스패널 [실전 가이드]와 [심화 가이드] 단계로 안내하며 각 단계에 [실력 평가하기] 버튼 삽입
각 가이드는 마티니 홈페이지(신설 예정)의 포스트, 혹은 마티니 구성원의 브런치, 티스토리, 블로그 등 그 어떤 형태도 좋다.
[제안 페이지 및 주문서]
총점과 함께 구간별 랜딩 페이지로 안내하며 [무료 상담] 단계로 이동할 수 있는 링크를 메일로 전송한다.
무료 상담 진행 이후에는 마티니 홈페이지의 컨설팅 문의 페이지로 이동한다.
(새로운 글 등록 > 업데이트 메일 알림 > 과제 수행 페이지 > 전화 상담 > 문의)
당신의 서비스를 신청할 수밖에 없는 성공 사례를 보여주고,
성공 사례의 주인공이 되고자 하는 고객들에게 ‘테이크 아웃 설득’을 하여 최종적으로 검증된 고객에 한하여 전화 상담(맞춤형 상담)을 하라.
February 5, 2024
⌜마케팅 설계자⌟의 28가지 퍼널 비법들을 분석하고 실제 프로젝트에 활용할 만한 퍼널을 구축해 보았다.
그리고 나만의 실전편 리뷰를 작성했다.
총 4개의 목차로 이루어진 각 요약편에는 일부 도서의 인용글도 있으나, 나의 언어와 나의 예시로 전체 단락을 이루고 있다.
대개 독서 토론의 목적은 독서를 하고 각자의 주관을 공유하는 데 목적이 있으나, 나는 한 단계 더 나아가 ‘독후 활동’에 의미를 둔다.
저자가 전달하고자 하는 핵심 메시지를 파악하고 [1], 이를 나의 주관으로 연계하여 [2], 실제에 적용하기 위한 상위 단계를 거친다 [3].
조직의 관점에서 바라본다면 다음과 같다.
팀원 각자의 창의를 브레인라이팅 [1]으로 공유하고, 마인드매핑 [2]을 통해 아이디어의 완성도를 높이며,
시각화 기반의 직관상 방식 [3]으로 1차적인 구체화를, 스타버스팅 [3]으로 아이디어를 보다 정교하게 구체화한다.
위 소개한 네 가지 기법이 익숙치 않다면 해당 글의 마지막을 참조하길 바란다.
.
.
.
⌜마케팅 설계자⌟
길거리 영업사원이 내미는 전단지를 받았다고 해서 당신의 사업 가치가 수직 상승한 적이 있는가? 높은 확률로 없을 것이다.
그 모든 이유는 앞서 언급했던 한 문장에 담겨있다. 나의 ‘고객’, 나의 ‘가치’, 결정적으로 일련의 ‘전략적인’ 퍼널이 없다.
내가 판매하는 제품을 필요로 하지 않는(잠재고객이 아닌) 사람에게 ‘비록 당신에게 이 제품이 필요하진 않지만 일단은 구매하라’고 속삭이는 것과 같다.
판매는커녕 얼마큼의 가치가 있는지 들여다보는 노력조차 하지 않을 것이다. 당신의 사업에 명확한 ‘퍼널’이 존재한다면 당신이 겨냥한 예상 고객은 (주)ㅇㅇ 영업사원이 제안하는 전략을 ‘구매’하여 당신의 사업 가치를 대폭 상승시킬 것이다.
퍼널의 기본 수단으로써 ‘핵심제안’과 ‘단 한 번의 제안(One-time offer, OTO)’ 두 가지를 기억하라.
퍼널의 진입 단계와 마무리 단계, 아니 모든 단계에서 큰 활약을 펼쳐 줄 노하우이다.
각각의 퍼널 유형은 제각기 다른 방식으로 수행하는 것이지만, 과정 자체는 동일하다.
퍼널에서 각각의 페이지는 단순하며, 사람의 관심을 낚아채는 ‘후크(hook)’를 가지고 있고, 가치를 창조하는 ‘스토리(story)’를 들려주며, 또 퍼널의 다음 페이지로 이동시킬 ‘제안(offer)’을 한다.
[마티니의 고객 페르소나 정의]
"나는 템플릿 제작 전문 디지털 파일을 판매하는 30세 여성 사업가, Erica이다."
1. 사건 발단
3년 전만 해도 나는 평범한 직장인이었다. 대학시절부터 아이패드의 ‘굿노트’ 앱을 즐겨 쓰다 취미 삼아 템플릿을 제작했고 어느새 완성된 템플릿이 30여 개나 되었다.
6개월 간 시각 광고 디자인 교육을 받았던 것이 도움이 되었는지 친구들에게서도 “와, 이거 팔아도 되겠는데?”라는 극찬을 받곤 했다.
그리고 문득 이런 생각이 들었다.
“취미에 그치지 않고 수익까지 낼 수 있다면 더 좋지 않을까?”
그렇게 3년 전 우당탕탕 시작했던 ‘Notetem’ 사업이 어느새 꽤 규모 있는 조직으로 성장했다. 템플릿 판매 전문 웹사이트를 구축했고 기기에 바로 내려받을 수 있는 앱도 출시했으며, 최근에는 팝업스토어 행사도 열어 나름 적지 않은 성과를 거뒀다.
2. 사건 발생
그런데 문제가 생겼다. 사업 초기에만 해도 국내 경쟁자는 없었고
대부분 개인 배포 형태이거나 해외 사이트였는데,
실력 있는 국내 경쟁자가 들어서면서 우리의 고객들이 모두 이탈하고 있는 게 아닌가.
더 큰 문제는 어느 부분을 ‘개선’하고 ‘수정’ 해야 하는지를 모른다는 것이다.
맨땅의 헤딩으로 일궜던 터라 내부 자료도 엉망이고 어디부터 손을 대야 할지 막막했다.
검색광고나 배너광고와 같은 미디어 광고도 자체적으로 시도해 봤지만 효과가 없었다.
또 데이터를 더욱 깊게 분석하고 점검하기 위해 관련 툴과 사용법을 검색해 보았을 때
선택의 폭이 너무나도 넓었고 공부해야 할 것들도 천지였다.
그러나 이 시점에 조직을 리빌딩하고 피봇팅 전략을 실행하는 것은 생각만 해도 버거웠다.
당장 한 달 순손실만 천 단위를 넘나들기 때문이다.
어느 날 지인에게서 이런 조언을 얻었다.
“광고 대행사와 협력해서 솔루션을 얻어보는 건 어때?” 괜찮은 생각이었다.
그도 그런 게, 나는 이 문제 이외에도 경영이라는 중대한 과업이 있었기 때문이다.
그래서 다른 문제를 대신 해결해 줄 마케팅 담당자를 채용해야 할지, 전문 업체와 협력해야 할지 결정해야 했다.
3. 사건 발생(2)
그렇게 1년 전 처음으로 모 마케팅 광고 대행사와 손을 잡았다.
대행사를 선정하는 별다른 기준은 없었다.
앱 마케팅에 특화되어 있는 것’처럼’ 보이는 곳이었고 수수료가 다른 곳 보다 저렴하다는 이유였다. 결과적으로 실패했다.
매주 메일로 받아보는 보고서에는 ▼(하한가) 표기가 난무했고 소재를 수정해야 한다거나 광고비 지출액을 높여야 한다는 제안의 연속일 뿐이었다.
4. 사건 해결
계약이 만료된 시점에 다시 협력할 업체를 찾기 위해 구글링을 했다.
그러다 엠제(emje)의 ‘그로스 마케팅과 그로스해킹은 뭐가 다를까?’라는 제목의 브런치를 읽게 되었다.
마케팅은 알겠는데 그로스? 해킹? 도대체 무슨 말인가 해서 의식의 흐름대로 읽어 내려가다 글의 끝맺음에 다달았을 때 ‘이거다!’ 싶었다.
정확히는 모르겠지만 단순히 많은 비용을 써야만 광고 효과를 볼 수 있을 거라는 여느 타 대행사와는 다르다는 것쯤은 알 수 있었다.
나는 당장 곧 있을 마티니 아이오의 세미나에 비용 5만 원을 지불하여 참가했다.
그들은 Performance & Growth & CRM을 원스톱 솔루션으로 제공한다는 사실을 알렸으며, 이에 대한 3W(Why, What, When)을 설명했고 나는 완벽히 설득당했다. 그리고 세미나가 끝난 동시에 마티니 아이오에 컨설팅을 의뢰했다.
[1] 당신이 꿈에 그리는 고객은 ‘누구’인가?
당신의 제품(혹은 서비스)을 필요에 의해 구매하라. 절실한 만큼 극복할 ‘무언가’가 필요하기 마련이고 필요하다면 결국 구매하게 되어있다.
마티니의 컨설팅 서비스에 참여할 수밖에 없는 타깃이 되어보고 그 제품을 구매할 만한 ‘진짜’ 고객(페르소나)을 정의해 보라.
[2] 당신이 꿈에 그리는 고객은 ‘어디에’ 있는가?
고객의 ‘참여 장소’에 집중하라. ‘페이스북의 [여전히 질주 중인 사업가] 그룹의 회원인 Erica는 매달 회원들과의 사교 모임에 참석하여 다양한 정보를 얻고 이를 블로그에 포스팅한다’고 가정해 본다.
그러면 당신은 ‘페이스북 광고 지면을 구매하여 그들의 니즈를 충족시켜 줄 만한 광고를 하겠다’는 계획이 눈 깜짝할 새 세워질 것이다.
[3] 꿈에 그리는 고객의 관심을 사로잡기 위해서 당신이 사용할 수 있는 ‘미끼(후크, 스토리, 제안)’은 무엇인가?
분할 테스트에 의해 필터 된 ‘진짜’ 고객들에게 어필하라. 당신의 제품을 도저히 거부할 수 없는 미끼를 사용해야 한다.
“5개월 만에 매출 30억 원을 기록한 마티니의 마케팅 노하우를 전수합니다.”라는 주제로 마티니가 그간 다양한 기업들을 상대로 맞춤 솔루션을 제시하며 봉착했던 난관들과 실제로 얻은 가시적인 결과, 그리고 그 과정 속의 모든 ‘숨은 비법’을 ‘단 오늘’ 나에게’만' 공유한다고 선언한다면 Erica가 이 서비스를 마다할 이유는 없다.
[4] 당신이 꿈에 그리는 고객을 위해서 만들 수 있는 독특한 ‘결과’는 무엇인가?
가능한 범위 내에서 확실한 약속을 하라. Erica가 마티니의 데이터 컨설팅 서비스를 제공받음으로써 얻을 수 있는 최소한의 가치를 보장해 주는 것이다.
가령 노템의 비즈니스 전반을 점검하여 맞춤 솔루션을 제시했을 때 그녀가 얻을 수 있는 일정 수준 이상의 개선 효과를 사전에 제시해야 한다.
당신이 내놓은 각각의 미끼 조각들, 즉 광고, 이메일, 랜딩 페이지(링크로 연결되는 첫 화면), 상향판매, 웨비나, 전화 통화 등은 모두 ‘후크 → 스토리 → 제안’을 담고 있어야 한다.
[Step.1] 후크&헤드라인
“꿈의 고객이 당신의 스토리를 꿈쩍도 않고 경청할 만한 헤드라인”
[Step.2] 스토리셀링(Story-selling)
“후크를 뒷받침할 만한 강력하고 신뢰 높은 이야기”
[Step.3] 거부할 수 없는 제안
“상품의 인지 가치를 실제 판매할 가치보다 열 배 이상 올리는 데 성공한 다음 열 배 낮은 가격으로 제안하라”
고객 한 사람이 굴곡선(‘잠재고객 → 가망고객 → 신규고객 → 기존고객 → 충성고객’)을 매끄럽게 오를 만한 나만의 가치 사다리를 그려야 한다.
그리고 중간 단계나 마지막 단계 중 하나를 골라 단 하나의 퍼널에만 초점을 맞추는 것이 중요하다.
[3 Points]
*가치 사다리 강령(value ladder mission statement, VLMS)
우리는 우리가 제공하는 '어떤 것'을 통해서 '누군가'가 '무엇을' 성취하도록 돕는다.
“마티니는 풀퍼널 마케팅 솔루션을 제공하여 고객사의 성장을 도모합니다.”
“마티니는 단 5단계 프로세스를 이용해 마케팅 비법을 모르는 고객사의 전 단계를 최적화합니다.”
'중력을 상대로 하는 싸움은 멈춰라. 전통적인 방식의 재정적인 조언이 위험하거나 혹은 명백하게 틀렸다는 사실을 확신한다.
중력과 마찬가지로, 그런 사실을 부인할 수는 있겠지만 기존의 조언을 따르는 한 결코 자유로워질 수 없다는 사실을 깨닫게 될 것이다.'
⌜마케팅 설계자⌟의 ‘매력적인 캐릭터 연습(126p)’ 中 -
[뻔한 캐릭터]
“극적인 매출을 보장합니다! 풀퍼널 마케팅으로 A부터 Z까지! 고객사의 모든 것을 책임집니다!”
[매력적인 캐릭터]
"저는 여전히 신규 고객사와 미팅을 할 때면 즐겁습니다. 아직도 저의 고객이 되어주실 분들이 넘쳐난다는 확신이 들거든요.
제가 1년 만에 120억을 달성한 ‘진짜’ 비법을 공개하지 않는 이유 중 하나이기도 합니다.
'신규 대행에 대한 문의를 받을 때 간혹 ‘수군데의 대행사와 업무를 진행해 봤는데, 만족할 만한 수준이 아니어서 바꾸려 한다’라는 이야기를 하는 고객사 분들이 계십니다.
이유를 물으니, 계약 전 보장받았던 약속들과는 달리 그저 광고비 지출액을 늘리는 것이 대안이라는 피드백의 연속이었다고 합니다.
악순환의 고리를 끊는 방법은 명확한 문제 인식과 이를 해결할 수 있는 논리적이고 분석적인 접근 방법이 필수입니다.
24시간 대시보드를 관찰하고 CPC 단가를 조정한다고 해서 ‘극적인 매출’은 절대 달성할 수 없습니다. 아, 마티니는 제외입니다."
선구자의 ‘후크 → 스토리 → 제안’의 늪에 빠져보아라.
나를 빠져들게 한 모든 요소를 빠짐없이 생각하고 내가 도저히 거부할 수 없게 만드는 것이 무엇인지 파악하라. 그리고 한 층 더 나은 제안을 하라.
[step.1] '방문자 온도’를 파악하라
잠재고객이 나의 상품(혹은 서비스)을 인식하고 있는 수준으로 ‘분류(Segmentation)’하라
[step.2] '사전 프레임 브리지’를 결정하라
각 방문자 온도에 맞는 전략을 구상하라
[step.3] 가입자를 추려내라
자신의 정보를 'Submit' 하지 않는 고객을 배제하라
[step.4] 구매자를 추려내라
극단적인 제안으로 구매할 의향이 있는 구매자를 ‘즉시’ 찾아내라
[step.5] 적극적인 구매자를 추려내라
상향판매와 교차판매를 이용하여, 구매자가 재구매를 할 수밖에 없는 고민거리를 찾아 ‘즉시’ 해결하라
[step.6] 더 깊은 관계로 나아가라
5단계까지의 ‘판매 시점’ 이후부터는 ‘매력적인 캐릭터’를 내세워 고객과의 깊은 유대감을 쌓는데 집중하라
[step.7] 판매 환경을 바꾸어보라
오프라인 판매(통신 판매, DM 판매, 또는 행사나 세미나)를 통해 충성 고객(혹은 기존 고객)이 더욱 귀 기울일 수 있는 방법론을 찾아 행해라
“혼란스러운 고객은 어김없이 구매를 거절한다.”
스퀴즈 페이지('단 하나의 목표'만 있는 단순한 랜딩 페이지)로 ‘당신이 통제하는 방문자’를 퍼널 허브로 유도하고 트래픽을 이용한 입소문으로 ‘당신이 획득하는 방문자’를 유도하여, 모든 방문자를 언제든 재구매가 가능한 ‘내가 소유하는 방문자’로 바꾸어보라.
단, 스퀴즈 페이지에는 오로지 단 하나의 목표(e.g. 이메일 입력)만 담도록 하라.
후속 퍼널의 2가지 메시지 유형
'연속극 시퀀스(Soup Opera Sequence)’
최초의 퍼널을 통해 끌어들인 잠재고객에게 당신이 판매하는 상품(혹은 서비스)과 관련된 썰을 풀어라. 정해진 순서나 수단은 없다. 고객이 첫 회를 경험하고 다음 회를 목 빠지게 기다릴 매력적인 스토리를 짜야한다.
‘데일리 사인필드 이메일(Daily Seinfeld Email)’
후속 퍼널에 들어와 있지 않은 잠재고객들을 다시 불러들여 가치 사다리로 되돌려 보낼 충격 실화를 공개하라. 모든 이메일에는 '후크','스토리', '제안'으로 이루어져야 하며, 주제가 광범위할수록 소재가 고갈되는 일이 없다는 점에 유의하라.
[의미]
침묵의 브레인스토밍이라고도 불리며, ‘자신의 생각을 정리하면서 새로운 아이디어를 발굴하는데 유용한 아이디어 발상법’을 의미한다.
본래 브레인라이팅은 모든 사람이 브레인스토밍 주제와 관련된 아이디어를 세 가지씩 작성하고 4~6분 내에 아이디어를 옆사람에게 공유하여 창의적인 전략을 추가하는 방식으로 진행된다.
나는 조직의 의미에서 약간의 각색을 더했다.
저자의 의도를 파악하고 이를 각자의 아이디어로 연계할 수 있는 충분한 시간을 갖고 모든 아이디어가 테이블을 한 바퀴 돈 후에 아이디어를 논의하고 실천할 최적의 아이디어를 선정한다.
[기능]
# 조직의 관점
조직의 관점에서는 모든 참여자가 동등하게 기여하고 처음 도출된 아이디어로 편향되는 것을 없애 브레인스토밍의 대표적인 함정 두 가지, 뷸균형적인 대화와 앵커 효과를 완화할 수 있다.
# 개인의 관점
개인의 관점에서는 이 기법에 익숙해지고 나면, 혼자서도 마인드맵을 이용하여 적용해 볼 수 있다는 장점이 있다. 즉 팀 협업을 강조할 수 있을 뿐만 아니라 개인의 독창적인 아이디어를 도모할 수 있는 도구이다.
[의미]
그룹에 공유된 첫 번째 아이디어가 항상 알맞은 아이디어는 아니나 더 나은 아이디어를 촉진할 수는 있다. 이때 마인드매핑이 효과적이다.
그룹이 하나의 아이디어로 시작하여 이 아이디어의 하위 아이디어를 선으로 연결해나가는 학습기법이다.
[기능]
마인드매핑은 아이디어 간의 상호연결상태를 시각적으로 보여주기 때문에 초기 아이디어를 정제하고, 촉진하는 데 유용하다.
[의미]
직관상 방식이란 시각화 기반의 방법으로, 경험에 기인한(이미 마음 속에 보존된) 이미지를 차용하는 방법이다.
하나의 제품(도서)을 정하고 기존의 것과 완전히 다른 새로운 기능(아이디어)을 발명하고자 하는 의향을 설정한 뒤,
이 기능을 기반으로 가장 먼저 색상이나 크기와 같은 대분류로 시작하여 성능이 더 좋은 기능이나 요소를 단계적으로 떠올리도록 한다.
그리고 각자가 선호하는 ‘새로운 기능’이 완성되고 나면 기존과는 다른 현재의 것이 정확히 어떤 형태를 띄고 있는지 그려보고 구체적인 아이디어를 덧붙인다.
[기능]
기존의 있는 것을 개선하는 게 목표일 때 가장 유용하게 작용한다.
‘브레인라이팅’과 ‘마인드매핑’으로 채택한 아이디어를 다방면으로 지속 개선, 유지할 수 있으며,
특히 2단계(마인드매핑)에서 스케치를 마친 이후 구체적으로 시각화하여 다방면으로 실현 가능성을 실험해 볼 수 있다.
January 26, 2024
앱 마케팅의 성과 측정을 위한 방식과 데이터의 해석은 쉽지 않습니다.아마 경험이 있으시다면 내가 성과를 제대로 측정하고 있는지 다른 데서도 이렇게 하는지 앱 성과 측정을 잘하는 곳은 어떻게 하는지 많이 궁금해하실 겁니다.
특히 개인정보보호 이슈로인해 앱 마케터들이 필요한 성과 측정 지표에 구멍이 뚫리기 시작했었죠.
이를 위해 MMP들은 이를 보정하기 위해 굉장히 많은 기술로 앱 성과를 측정할 수 있도록 보완해주고 있습니다.하지만 이를 제대로 사용해야만 데이터 사각지대를 피할 수 있습니다.
데이터 사각지대는 마치 안개가 짙은 도로에서 운전하는 것에 비유할 수 있을 것 같습니다.안개가 짙으면 운전자는 도로의 일부만 볼 수 있으며, 나머지는 안개에 가려져 보이지 않습니다.
마찬가지로, AppsFlyer의 로우데이터 리포트에서는 일부 데이터가 제한되거나 가려져 있어 전체적인 상황을 완전히 파악하기 어려운데 이를 데이터 사각지대라고 표현합니다.
모바일 앱 성과를 측정할 때는 플랫폼 및 매체사의 개인 정보 보호 및 그에 따른 데이터 공유 정책에 기반한 로데이터 리포트 제한으로 인해 데이터를 제공받지 못하는 현상이 발생합니다.
전환(설치 및 재참여) 및 제한 광고 네트워크가 기여한 관련 인앱 이벤트가 제한되어 앱스플라이어에서 데이터를 내려받으면Media Source 필드는 restricted 로 채워지고 어트리뷰션 필드는 비어 있거나 null로 채워집니다.
또한 데이터 보존 및 삭제 정책에 따라 유저 레벨의 데이터는 AppsFlyer에 의해 제한된 기간 동안 보존되고 보존 기간이 끝나면 사용자 이벤트는 원래 미디어 소스 대신 유기적(organic) 소스로 변경됩니다.
이외에도 여러 제약 조건이 있어서 공식문서를 살펴보시길 권장드립니다.
리타겟팅 어트리뷰션과 UA 어트리뷰션 데이터를 통합할 때인앱 이벤트 성과 중복이 생길 수 있는 점
인앱 이벤트 성과 중복이 된다는 개념을 살펴보자면
아래 이미지 처럼 리타겟팅 캠페인으로 유입된 유저의 데이터는 UA, RT(retargeting) 리포트에 중복으로 기록됩니다.
데이터를 다운 받으시면 아래 이미지와 같은 컬럼을 확인할 수 있습니다.
위와 같은 현상을 보완할 수 있는 앱스플라이어의 기능으로는 무료로 사용 가능한 데이터 락커의 코호트 애널리틱스 입니다.
하지만 단점도 물론 존재합니다.
이번 글은 앱스플라이어를 사용하면서 데이터 사각지대에 빠지지 않기 위한 방법으로 데이터 락커 코호트 분석 기능을 소개해드렸습니다.
다음번에도 앱스플라이어를 제대로 사용할 수 있게 도움을 드릴 수 있는 글을 작성해보려 합니다.
앱스플라이어(AppsFlyer) MMP 제대로 사용하고 있는걸까? 데이터 사각지대 대응 솔루션 ft. 데이터 락커
https://www.linkedin.com/company/martinee
January 13, 2024
GTM은 Google Tag Manager의 약자로 구글이 쉽게 웹 사이트에 구글의 태그(코드)를 설치할 수 있도록 도와주는 솔루션이다.
여기서 잠깐... 그럼 태그(Tag)는 무엇일까?
태그는 뭐고 픽셀은 뭔가요? 다른 걸까요?
디지털 마케팅을 접해본 사람이라면 픽셀, 태그라는 용어를 정말 많이 들었겠지만 저렇게 질문을 했을 때 명확하게 답하는 사람은 많지 않다.
정답은 태그(Tag)와 픽셀(Pixel) 모두 같은 말이다(!).
GA4과 같은 제삼자에게(메타일 수도, 구글애즈일 수도, 앰플리튜드일 수도 있다.) 정보를 전송하는 자바스크립트(전송 컴퓨터 언어 종류) 코드 조각을 '태그'라고 부른다.
메타, 카카오에서는 '픽셀'이라 말하고 구글에서는 '태그'라고 지칭한다.
태그 스니펫(=코드 조각)은 이렇게 생겼다.
위 코드 스니펫은 유저가 로그인 성공했을 때 gtag(구글태그)라고 하는 해당 코드를 발동시켜 user_id를 포함한 login 이벤트를 구글 매체에게 전송하는 역할을 가지고 있다.
즉, 유저가 내가 추적하고자 하는 행동(이벤트)을 했을 때 코드가 작동하면서 유저 행동 정보를 매체에게 전송하고 매체들은 본인들의 집계 기준을 통해서 필터링하여 대시보드에 적재하게 된다.
만약 대시보드 내에 확인되는 수치들이 이상하다면 태그가 정상 발동되는지 가장 먼저 의심해보아야 한다.
자 그렇다면 GA4를 설치하기 위해서는, 당신의 사이트에 1) GTM의 코드와 2) GTM 안에 GA4코드를 설치해야 한다. 그래야 GTM이 작동하면서 GTM 내부에 있는 GA4 코드를 실행시켜 유저 액션 데이터를 GA4 대시보드에 보여주니까!
우선 GTM 사이트(링크)에 들어가서 GTM의 계정과 컨테이너를 생성한다.
1개의 계정 안에는 복수 개의 컨테이너를 추가 생성할 수 있다.
컨테이너를 생성하면 GTM id가 부여되고 GTM id를 클릭하면 GTM 코드를 확인할 수 있다. <head> 영역의 코드를 복사한다.
<head> 코드에 부여된 GTM id가 내가 생성한 id와 동일한지 확인을 하고 맞다면 웹 페이지의 HTML <head> 영역의 가장 최상단 영역에 코드를 넣는다.
(가능하면 최! 상단에 넣도록 한다. GTM 코드가 가장 우선적으로 실행되어야 하기 때문에..)
만약 내부 개발자가 자체적으로 구축한 사이트라면 개발자에게 부탁하여 디자인 소스 <head> 영역에 넣어달라고 요청해야 하고 카페24, 아임웹, 고도몰과 같은 호스팅사를 이용해 구축했다면 관리자에 들어가서 쉽게 코드를 추가할 수 있다.
📝 호스팅사 별 GTM 삽입하는 방법
(1) 카페24: 쇼핑몰 설정 > 기본설정 > 검색 엔진 최적화 > 고급 설정 > 코드 직접입력
(2) 고도몰: 기본 설정 > 기본 정책 > 외부스크립트 관리
(3) 아임웹 (링크)
(4) 식스샵 (링크)
단, GTM은 내 사이트 영역에만 삽입되어 작동하는 코드이므로 내 사이트 내에 열리는 다른 소유의 사이트에 대해서는 추적이 불가능하다.
가장 대표적인 예로는 Npay 버튼을 클릭했을 때 넘어가는 Npay 결제 화면으로, 해당 페이지는 네이버 페이 권한이기 때문에 GTM으로는 정확하게 결제 완료까지 추적이 불가능하다.
대신 Npay 버튼 클릭 값으로 수치를 추측할 수 있다.
예외적으로 카페24처럼 매체와 네이버 간 API로 직접 연동이 되어 있는 호스팅사라면 매체 대시보드에서 API로 받아오는 구매 건수와 결제금액을 확인할 수 있다.
(카페24 <> 메타의 경우)
커머스 사이트라면 기본적을 아래 이벤트를 가장 많이 활용할 것이다.
pageview (페이지뷰)
전자상거래 이벤트의 경우 GA4 매뉴얼 문서에 이벤트 명을 명시해 두었으므로 문서를 참고해서 내 사이트에 필요한 이벤트를 선별 하면된다. (링크)
GTM으로 삽입하는 방식은 크게 (1)페이지 URL과 (2)버튼 클릭 조건으로 삽입할 수 있다.
마티니 아이오 페이지를 예시로 들어보자.
마티니 아이오 홈페이지에 들어가면 상단 바에 'Our Workflow', 'Success Stories', 'Meet Martinee' 탭이 보인다.
만약 방문 유저가 'Meet Martinee' 페이지에 랜딩 했을 때 view_item(상세페이지 조회) 이벤트를 추적하고 싶다면 가장 쉬운 방법으로는 페이지 URL이 변경될 때를 조건으로 설정하는 것이다.
GTM에서 '트리거'는 발생 조건을 의미한다.
우리는 특정 페이지 주소를 조건으로 잡아야 하기 때문에 GTM > 트리거에서 새로 만들기를 클릭한다. 트리거 유형은 'DOM 사용 가능'으로, 특정 페이지 URL이 랜딩 됐을 때만 이벤트가 발동해야 하므로 '일부 DOM 사용 가능 이벤트'로 설정한 후 page path 조건을 걸어둔다.
만약 유저가 'Meet Martinee' 페이지에 랜딩 했을 때가 아닌, 'Meet Martinee' 버튼을 클릭했을 때 view_item(상세페이지 조회) 이벤트를 발동하고 싶다면 트리거를 클릭요소로 바꾸면 된다.
우선은 웹 사이트 상에서 개발자 도구를 연다. 그 후 내가 추적하고 싶은 아이콘(버튼)에 마우스 커서를 갖다 대면 해당 버튼의 html 코드가 같이 표시된다.
개발자 도구에서 보면 해당 버튼의 클래스 이름은 "font-poppins-bold text-base text-white"이고 버튼 텍스트는 "Meet Martinee"임을 알 수 있다. 그럼 우리는 Click Classes와 Click Text를 가지고 GTM에서 트리거 조건을 걸 수 있다.
자, 이제 이벤트 발동 조건을 모두 설정하였으니 이벤트만 설정하면 된다. 이벤트는 GTM의 태그에서 생성할 수 있다. 트리거와 마찬가지로 태그에서 '새로 생성하기'를 클릭하고 이벤트 명을 설정해 준다. 이벤트 명은 내가 대시보드에서 확인할 수 있는 이벤트명과 매체를 명시하는 것이 추후 수정/관리가 용이하다.
GTM은 구글 마케팅 플랫폼으로 GA4와 연동이 되어 있어 어려운 코드가 필요하지 않다.
이벤트 이름과 내가 설정한 meet_martinee_landing_page 트리거를 설정한 후 '저장'을 클릭하면 Meet Martinee 페이지에 랜딩 할 때마다 GA4의 view_item 이벤트가 발동하게 되는 것이다.
트래킹이 필요한 이벤트의 태그 삽입을 완료하면 GTM 컨테이너 상단의 '미리 보기'를 통해 이벤트가 잘 발동되고 있는지 체크를 해보고, 문제가 없다면 '배포'를 클릭하여 실제 사이트에 코드를 배포하면 된다.
January 12, 2024
태그(Tag 혹은 Pixel)는 디지털 마케팅을 하기 위해 데이터를 전송하는 역할을 하는 코드 조각으로 디지털 마케팅의 첫 단추라고 생각하면 된다.
약간의 컴퓨팅 지식(예를 들면 javascript, 웹/앱 구조 등등)이 필요할뿐더러 매체마다 메뉴얼이 다르고 업데이트가 빨라 한 번에 지식을 터득하기가 매우 어려웠다. 국내외 블로그, 매뉴얼 문서, 오프라인 강의 등 닥치는 대로 찾아보면서 공부했었다.
그렇게 한 땀 한 땀 구슬 꿰듯이 터득하고 보니 결국 하나의 매체 혹은 마테크(MartTech, Marketing + Technology) 툴을 활용하기 위한 순서가 크게 다르지 않다는 것을 깨달았다.
보통은 아래와 같은 일련의 순서를 따르게 된다.
📝 연동 플로우
1. 내 사이트/앱 컨디션 점검
2. (웹) GTM 태그 설치 / (앱) SDK 설치
3. QA 및 배포
4. 대시보드 설정
5. 활용하기
5-1. 데이터 분석
5-2. 데이터 시각화
5-3. 다른 마테크 툴 또는 매체와 연동
우선은 내가 분석해 보고 싶은 사이트/앱의 (접근 권한을 가지고 있어야 하므로 보통은 내 서비스의 사이트 혹은 앱)의 현황을 체크해야 한다. 어떻게 사이트를 구축했는지, 개발자의 지원은 받을 수 있는지, 이전에 사이트에 설치해 놓은 다른 분석 툴이나 매체 코드가 있는지 등을 주로 확인한다.
GTM(Google Tag Manager)은 구글에서 2012년에 웹 사이트 추적 코드를 빠르게 삽입하기 위해 론칭한 솔루션으로, 추적 코드를 매우 빠르게 설치하고 쉽게 수정할 수 있다.
웹 사이트는 주로 GTM을, 앱은 SDK를 활용하여 필요한 태그를 설치하면 된다. 단, 어떤 데이터를 추적하고 싶은지 목적을 잘 설정해야 하고 해당 목적에 따라 세부적으로 어떤 유저 행동을 각각 봐야 하는지('이벤트'라고 부른다.) 잘 설계해야 한다.
이렇게 체계적으로 추적할 이벤트를 설계하는 것을 '택소노미'(Taxonomy)라고 한다.
QA(Quality Assurance)는 새로운 코드나 기능을 배포하기 전 해당 코드를 실제처럼 구현해 보고 문제가 있는지 여러 번 확인하거나 모니터링하는 단계라고 보면 된다.
QA 단계가 끝나면 실제 웹/앱 서비스에 신규 코드를 배포하여 반영될 수 있도록 한다. QA 단계에서 테스트를 여러 번 진행했더라도 실제 서버에서 에러가 나는 경우도 많으므로 배포 직후에도 테스트를 해보는 것이 중요하다.
실제 사이트에서 매체나 마테크 툴 연동 코드를 배포하고 나면 해당 매체나 마테크 대시보드에 수치가 찍히게 된다.
이때 각 대시보드에서 설정해야 하는 기본적인 사항들이 있으므로 잘 숙지를 하고 미리 세팅을 해놓아야 한다. 그렇지 않으면 대시보드에 수치가 반영되지 않기도 한다.
기본적으로 제공해 주는 툴을 사용하다 보면 내가 가지고 있는 추가적인 데이터와 연결하여 분석하고 싶거나 다른 부서의 사람들과 함께 활용하거나 보고용으로 시각화하는 작업이 필요하기도 하다.
이때는 빅쿼리, 스노우 플레이크, AWS와 같은 클라우드 서비스와 연동해서 데이터를 추가하고 정제하는 작업을 하거나 태블로, 루커 스튜디오와 같은 데이터 시각화 툴과 연동해서 추가 작업을 한다.
세상에는 많은 마테크 툴이 있지만 사업 규모나 예산에 상관없이 한 개만 선택해야 한다면, GA4(Google Analytics)를 추천하고 싶다.
일단은 무료인 데다가 다른 구글 마케팅 플랫폼과 연동이 쉬워 진입 장벽이 낮기 때문이다. 그리고 GA3에서 GA4로 업데이트 되면서 대시보드 업로드 속도도 개선되었고, 데이터 분석에 익숙하지 않은 사용자들이 비교적 쉽게 이해할 수 있도록 직관적인 시각화 기능도 추가되어서 초기 도입 툴로 좋다. (실제로도 많은 기업들이 초기 도입 툴로 GA4를 많이 활용하고 있다.)
위에 나열한 것과 같이 많은 단계를 거쳐야 하지만 내 사이트를 방문하는 고객들을 분석하고 기본적인 대시보드(리포트)를 만드는 것, 디지털 마케팅의 필수 단계이다. 다만, 관련된 도메인이 많아서 흩어진 자료를 취합하고 이해하는 과정에서 굉장히 시간이 많이 소요될 것이다.
소규모 기업부터 대기업까지 여러 규모의 담당자들을 만나면서 느낀 점은 치열한 경쟁 속에 비즈니스를 성장시키는 것은, 그야말로 전쟁터 같았다. 그 망망대해 같은 전쟁터에서 누군가의 직관적인 '감'으로만 고객을, 그리고 팀원을 설득한다는 것은 매우 불안한 일이다. 그 말을 하고 있는 나 조차도 흔들리기 때문이다.
데이터는 그때마다 등대와 같은 역할을 해주는 것을 많이 보았다. 어디로 나아갈지 확신을, 방향을 가르쳐줬다. 그래서 누구나 데이터를 활용할 수 있고 볼 수 있어야 한다.
어렵지만 어려운 것으로만 남아서는 안되므로, 혼자라도 GA4를 연동하고 루커 스튜디오를 활용해 기본적인 대시보드를 만들 수 있도록 필요한 개념과 과정들을 이 시리즈로 한 번에 끝낼 수 있도록 소개하려고 한다.
January 2, 2024
게임 런칭 후, 규모가 큰 예산을 다양한 매체에 투입하여 빠른 최적화를 위해
MMP(Mobile Measurement Platform)와 광고비 데이터를 매칭하는 일은 게임 마케터들에게는 매일이 도전이다.
성과를 리포팅하기 위해 매일 오전에 엑셀로 기계적으로 해야만 하는 매칭 작업은 정말 번거롭다.
엑셀에서의 작업은 단순하지 않다.
굉장히 많은 시트를 참조하는 수식과 표들이 엄청나게 많다.
아래처럼 데이터가 정리되어 있다면 보는 사람도 힘들다.
이 엑셀에 있는 수 많은 테이블들을 깔끔하게 시각화 대시보드를 만들어서 성과를 볼 수 있는 방법에 대해서 소개하려고 한다.
(다만 약간의 파이썬으로 데이터를 약간 다룰 수 있다면 가능한 수준)
시각화해서 보면 데이터 분석이 용이해져서? 편해서?
대시보드가 마케터에게 필요한 이유는 전체적인 상황을 빠르게 파악해서 문제 발생 시 빠르게 대응하는데 도움을 준다.
엑셀로 시각화 해서 볼 수 있겠지만..
아무래도 BI툴(Business Intelligence Tool)은 데이터가 많아졌을 때와 지표를 복합적으로 다양한 분석 단위와 엮어서 볼 때 힘을 발휘한다고 생각한다.
Looker Studio(구) Data Studio와 빅쿼리(BigQuery)를 활용하여 속도와 효율성을 높일 수 있다.
특히 BI engine이 빅쿼리를 사용하면 빠른 속도로 대시보드를 사용 수 있다.
(대시보드도 데이터 양이 많거나 수식 등이 많아지면 당연히 느려지긴 하지만 엑셀처럼 '응답 없음' 이런 에러는 발생하지 않음)
루커스튜디오에서 BI 엔진이 작동하는지 어떻게 알 수 있는지는 아래 이미지 캡쳐의 번개모양이 표시되고 있다면 지금 BI 엔진이 동작한다는 뜻이다.
빅쿼리는 뭐냐? 데이터 웨어하우스 종류의 하나다. 쉽게 말해 데이터 저장소이다.
우리는 이걸 활용해서 엑셀에 데이터만 모아서 구글 저장소에 던져주면 우리는 데이터 해석만 하면 된다!
광고 데이터 분석에 시간을 더 투입할 수 있다.
게임 성과에 중요한 지표는 ROAS, CPA, NRU, CPI, ROAS D+1, ROAS D+7 , LTV 등이 있다.
이해를 위해 쉽게 설명하면 내가 우리 게임을 위해 10억을 광고비에 투자했을 때, 이 돈이 한 명의 잠재 고객을 데려오기 위해 얼마나 효율적으로 쓰였는지?
신규 유저를 효율적인 단가에 잘 데려와서 우리 게임을 얼마나 오랫동안 즐기고 있는지를 파악하기 위해 숫자로 분석하는 지표다.
이 지표들은 트렌드들을 한눈에 볼 수 있어야 되고 특정 지표가 상승하거나 하락했을 때 원인을 분석 단위(광고 매체, 광고 캠페인, 광고 소재) 등에서 빠르게 찾아낼 수 있어야 한다.
여기 소개드리는 마케팅 대시보드 구축을 위한 데이터 파이프라인은 아래와 같다.
게임 회사들은 대부분 모든 회사들이 MMP(AppsFlyer, Adjust, Airbridge 등)를 쓸 것이다.
(보통 대행사들은 광고주 측과 엑셀 파일에 성과를 정리하여 핑퐁 한다)
1. 엑셀 파일에 Raw Data를 수집한다. (MMP, 광고 채널별 데이터) - API를 활용해서 자동으로 데이터를 수집할 수 있지만, 개발자 없이 마케터 혼자 할 수 없다.
2. 데이터 전처리 : 여러 데이터를 네이밍 컨벤션을 기준으로 엮어서(JOIN) 해서 MMP 데이터를 통한 지표와, 광고비, 클릭수와 같은 광고 성과 데이터를 하나의 테이블로 만들어낸다.
3. 전처리한 데이터들을 구글 클라우드 스토리지(GCS)에 파일을 업로드한다.
(여기서 바로 그냥 스프레드시트와 데이터 혼합해서 사용해도 되지 않냐고 할 수 있지만 한 번 해보면 너무 느려서 대시보드를 사용할 수 없을 정도..)
4. 파일을 업로드하면 자동으로 Google Cloud Functions 에서 GCS파일이 업데이트될 때마다 읽어서 빅쿼리에 기존 데이터를 업데이트한다.
5. Looker Studio로 데이터 원본을 만들고 대시보드 구축을 시작한다.
마케터들이 직접 수행 가능한 대시보드 구축 프로세스를 통해 모바일 게임 마케팅에서의 복잡한 데이터 작업을 효율적으로 해결할 수 있다.
Looker Sudio와 BigQuery를 활용해서 빠르게 인사이트를 얻을 수 있을 것이다.
원래는 광고 데이터까지 API를 활용해서 자동으로 데이터를 소싱해서 전처리까지 자동화시킬 수 있으나 개발자와의 소통과 개발 리소스를 실무에서 획득하기가 쉽지 않을 것이다.
하지만 오늘 소개한 방법은 실제 퍼포먼스 마케터들도 충분히 활용 가능한 방법이고 엑셀 내 수많은 시트와 장표 지옥에서 해방되고 싶다면 무조건 시도를 해보면 많은 도움을 받을 수 있지 않을까 생각된다.
December 29, 2023
이 지표는 서비스의 일일 사용량과 참여도를 측정하는 데 유용합니다.
이 지표는 장기적인 사용자 참여와 서비스의 월간 성장을 파악하는 데 도움이 됩니다.
DAU와 MAU는 서비스의 성공과 성장을 측정하고, 전략적 의사결정을 내리는 데 중요한 역할을 합니다.
- DAU와 MAU를 통해 사용자들이 얼마나 자주 서비스를 이용하는지 파악할 수 있습니다.
- DAU의 중요성
- MAU의 중요성
- 참고) DAU & MAU
- DAU와 MAU를 시간에 따라 추적함으로써, 서비스의 성장 추세의 변화를 분석할 수 있습니다.
1. Amplitude에서 New Chart > Segmentation을 클릭합니다.
2. 이벤트 모듈에서 Amplitude 자동생성 이벤트인 Start Session를 선택합니다.
"Start Session" Event 정의
A marker indicating the start of a user session.
A session is a period of time that a user has your app in the foreground.
By default, events within 5 minutes of each other are combined into a single session on a mobile app.
On web, events within 30 minutes of each other are combined into a single session.
유저수를 확인하는 것이 목적이므로 Measure 기준을 Uniques로 선택합니다.
3. 해당 방식을 통해 Amplitude에서 DAU를 확인할 수 있습니다. 추가로 메트릭 모듈에서 날짜 설정을 통해 원하는 기간을 설정하여 확인할 수 있습니다.
1. Amplitude에서 New Chart > Segmentation을 클릭합니다.
2. 이벤트 모듈에서 Amplitude 자동생성 이벤트인 Start Session를 선택합니다.
3. 우측의 Advanced 버튼을 클릭해 Rolling Window를 클릭해줍니다.
월 기준 확인을 위해 기준 day를 30일로 설정해줍니다.
4. 해당 방식을 통해 Amplitude에서 MAU를 확인할 수 있습니다. 추가로 메트릭 모듈에서 날짜 설정을 통해 원하는 기간을 설정하여 확인할 수 있습니다.
November 22, 2023
마케팅 산업은 섬세하다. 트렌드, 경제 활동 상태, 계절, 문화, 시간 등 다양한 요소와 이어져 있어서다. 마테크(Martech) 시장에 과열·정체·과냉 현상이 동시에 공존하는 것도 바로 이 때문이다. 트렌드를 반영하기 위해 하루가 다르게 성장하는 기술, 새로운 기술로 보다 높은 가치를 만들어 내고자 분주히 움직이는 마케터들, 계절의 흐름을 선도하기 위해 시간을 달리는 사람들 사이로 각종 규제들까지 빠르게 스며든다.
반면, 변화를 위해 오랜 시간이 필요한 경우도 있다. 마케팅 솔루션에 대한 전반적인 이해 그리고 필요성에 대한 확신이다. 새롭게 개발된 다양한 솔루션을 다루기 위해 익혀야 할 기술이 많아졌고, 기존 솔루션조차 익숙해지지 않은 상태에서 도입된 새로운 기술은 혼란을 가중시킨다. 그럼에도 필자는 앞으로의 비전이 더 큰 시장, 더 크게 성장할 파이가 많은 분야가 마케팅 산업이라 확신한다.
불과 몇 년 전만 해도 MMP(Mobile measurement partner, 모바일 측정 파트너) 솔루션의 필요 여부에 대한 설득조차 쉽지 않았다. 이해를 돕기 위해 나열된 여러 비교장표와 수많은 설득용 자료는 필수였다. 과거 필자가 속했던 조직에서도 같은 이유로 여러 난항을 겪었다. 우리의 솔루션이 ‘왜’ 필요한지부터 설명해야 했기 때문이다.
사실 아직까지도 좋은 툴만 있다면 마케팅을 성공할 수 있다고 생각하는 경우가 많다. 필자는 이에 대해 마테크 솔루션, 마케팅 툴은 ‘상황을 직시할 수 있도록 돕기 위해 존재’한다고 피력하고 싶다. 문제 본질에 대한 해결책 제시가 아닌 상황을 정확하게 분석하고 파악할 수 있도록 돕는 시스템이기 때문이다. 아무리 좋은 솔루션일지라도 모든 문제를 해결할 순 없기에 반드시 ‘정확한 이해’가 뒷받침돼야 한다.
데이터 분석가를 예로 상황을 대입해 보면 다음과 같다. 데이터분석 전문가가 되기 위해 파이썬(Python, 간결하고 생산성 높은 프로그래밍 언어)과 SQL(Structured Query Language, S-Q-L, 관계형 데이터베이스 관리 시스템(RDBMS)을 위한 프로그래밍 언어) 등 관련 기술을 배운 사람이 있다. 실무 경험 없이 오롯이 지식만 습득한 상태다. 이때 우리는 관련 기술에 대한 지식을 완벽하게 습득했더라도 ‘전문가’라 칭하지 않는다. ‘관련 기술을 익힌 사람’ 정도로 여길 것이다. ‘배움’을 ‘전문성’과 동일시할 수 없기 때문이다.
전문가로 인정받기 위해선 다양한 능력이 요구된다. 비즈니스와 도메인에 대한 정확한 이해가 필요하다. 문제에 대한 적절한 가설을 세울 창의력과 논리력도 요구된다. 여기서 끝이 아니다. 결과로 나온 데이터를 완벽하게 이해한 뒤 인사이트 도출을 위한 문해력과 분석력, 가설을 세우고 검증까지 이어지도록 하기 위한 기획력과 설득력, 이러한 과정을 이끌어 나가기 위한 추진력과 커뮤니케이션 능력까지 동반되어야 한다.
이제 마테크 분야로 돌아와보자. 이른바 현재 마케팅 분야에선 기초적인 스킬-셋(skill set)으로 분류되는 SQL, 파이썬, R(오픈 소스 빅데이터 분석 도구)부터 데이터 분석 프로그래밍 언어(SQL), 데이터 시각화 프로그램(MS Power BI, Tableau), 데이터 파이프라인 솔루션(AWS, Bigquery), CRM 솔루션(Braze, Insider, Bigin), 유입 분석 솔루션(Appsplyer, Airbridge) 등 다양한 기술과 솔루션들이 활용된다.
그리고 이러한 데이터 분석 도구들을 다룰 필요 없이 데이터 분석에 더 쉽고 빠르게 접근할 수 있는 방법도 있다. 바로 앰플리튜드(Amplitude), 믹스패널(Mixpanel)과 같은 제품 분석 솔루션이다.
그렇다면 길게 나열된 여러 기술을 실무로 익힌 전문가와 뛰어난 제품 분석 솔루션을 가진 초보자가 같은 상황에 놓였을 경우 어떤 결과가 초래될까. 필자는 전문가의 압승이라 확신한다.
전문가와 비전문가의 예에서 한 가지 경우를 더 추가해보자. 바로 ‘제품 분석 솔루션을 가진 전문가’를 말이다. 제품 분석 솔루션을 단지 활용한다고 해서 좋은 결과로 이어지거나 저절로 분석과 이해도가 높아지지 않는다는 건 이미 인지했을 것이다. 제품 분석 솔루션에 대한 정확한 이해를 가지고 있어야만 툴이 가진 가치를 이끌어 낼 수 있기 때문이다. 다양한 접근법에 맞는 해결방법들을 고안할 수 있어야만 문제를 해결할 수 있다.
좀 더 쉽게 예를 들어보자. 우리는 다치거나 아프면 병원에 찾아가 의사로부터 진단을 받는다. 여기서 진단을 받은 것이 ‘문제 해결’이 아니다. 문제를 찾기 위한 과정에 지나지 않는다. 진단 이후 처방을 받게 되고, 받은 처방으로 나아지고 있는지 재점검이 필요하다. 때에 따라 지속적인 점검이 필요한 경우도 있다. 큰 병일 경우 한 번으로 해결되는 것이 아니라 꾸준히 지속적인 추적 관찰을 통해 다양한 방법을 시도하며 경과를 관찰해야 하기 때문이다.
다시 말해 제품 분석 솔루션은 환자를 진단하기 위한 ‘의료기’, 마케터는 고도화된 의료기로 환자를 검진 후 진단하는 의사에 해당한다. 의사가 의료기로 환자를 검진 후 처방을 내리고, 경과에 따라 처방을 달리하듯 마케터 역시 비즈니스를 정확하게 이해한 후 방법을 도출하고, 지속적으로 관찰하면서 문제가 없는지 확인해야 한다.
한 가지 더 주의할 점이 있다. 하나의 의료기로 모든 병을 진단할 수 없는 것처럼 툴 하나로 모든 문제를 해결할 수 없다는 점이다. 환자의 상태에 따라 적절한 의료기를 사용하듯 기여도(광고)·인지도(유저)·모객을 위한 MMP 및 구글 애널리틱스(GA4, Google Analytics), 비즈니스 전반의 문제를 빠르게 진단하기 위한 분석 툴(R, SPSS), 시각화 툴(MS Power BI, Tableau) 등 마케팅 역시 문제에 적합한 툴을 활용해야 한다는 점이다.
마테크 툴의 가치는 담당자의 ‘이해도’와 직결된다. 툴을 다루는 담당자의 정확한 이해를 바탕으로 분석방법론, 통계적 해석 등 관련된 다양한 지식을 쌓아야만 효과적으로 활용될 수 있다. 툴은 그 자체만으로는 가치가 발현되지 않는다. 잘 활용할 수 있는 사람에 의해서만 가치가 발현된다. 의사라는 전문 지식을 가진 담당자 손에 쥐어졌을 때 의료기기라는 도구의 가치가 발현되듯 말이다.
완벽한 ‘이해’를 위해선 노력이 필요하다. 특히 직접 경험하며 많이 다뤄 보는 것이 가장 좋은 방법이다. 하지만 현실적으로 전문가가 아닌 이상 거의 불가능에 수렴한다. 대신 간접 경험을 통해 이해력을 높여야 한다. 제품 분석 솔루션 공식 페이지에 공유된 각종 문서들, 전문가들의 경험이 담긴 책, 현직 마케터들이 현장에서 쌓은 경험을 공유한 다양한 사례들을 접하며 익혀야 한다. 성공사례와 실패사례를 각각 분석하고, 비교하며 ‘왜 이러한 결과가 초래됐는지’ ‘왜 이러한 과정으로 진행됐는지’ 이유, 결과, 기획부터 마무리까지의 과정, 모든 것을 세세하게 체크해 자신의 경험으로 녹여야 한다. 마케터의 이해력이 툴의 가치를 결정하는 동시에 성공을 잇는 유일한 방법이기 때문이다.