대화 분석가들은 "대화"가 다음의 피쳐들을 보여주는 "말을 교환하는 시스템"이라고 했다. "A Simplest Systematics for the Organization of Turn-Taking for Conversation" (1974) 에 나오는 대화 요소를 소개한다. Speaker의 변경이 일어난다. 압도적으로 한 사람이 한번에 말한다. 한 번에 여러 명이 말하는 경우가 일반적이다. 하지만 짧다. 시간 간격과 겹침이 없는 턴 전환이 일반적이다. 턴 순서, 사이즈는 고정되어 있지 않다. 대화의 길이, 화자, 턴의 상대분포는 미리 명시되어 있지 않다. 화자의 수는 변할 수 있다. 대화는 연속적일 수도 있고, 비연속적일 수도 있다. 대화 순서를 명확하게 할당해줄 수 있다. (예: 다음 화자를 선택할 때..

parametric statistics 중 t-test와 One-way ANOVA에 대해서 알아본다. 엄청 잘 요약되어있는 그림을 찾아서 가져왔다. t-test null hypothesis에서 t-distribution을 따르는 통계 가설 검정이다. 두 그룹의 평균값에 차이가 있는지 확인한다. sample은 정규성, 등분산성, 독립성을 만족해야 한다. 평가자가 반복되는지에 따라서 세 가지로 구분된다. $t = \frac{\text{obtained difference}} {\text{difference by random error}}$ '불확실도에 따른 차이'라고 이해할 수 있다. 여기서 불확실도에 standard error를 대입해볼 수 있다. S.E(Standard Error): 평균값이 가변하리라 예..

비교와 관련된 통계 분석 방법들을 알아보려고 한다. parametric statistics 중 chi-square test을 알아본다. chi-square test: 그룹 간의 차이를 chi-square 분포를 사용해서 가설검정하는 것이다. independent variable과 dependent variable이 모두 categorical variable인 경우, 교차표(cross tabulation table)을 사용해서 분석할 수 있다. chi-square test를 이용한 3가지의 다른 가설을 가진 테스트들을 확인해보려 한다. (유의 수준 0.05로 고정) chi-square 값은 관찰 빈도와 기대 빈도의 차이를 기대 빈도로 나눈 것이다. 즉, 0에 가까울 수록 기대 빈도와 가깝다는 것이다. 식으..

추석에 학교에 아무도 없어서 말할 사람이 없다 보니 (?) 글을 쓰게 되었다. 연구 방법론 석사 수업을 밑바탕으로 여러 자료를 읽으며 정리해보려고 한다. 공부하면서 정리하는 것으로, 글에 오류가 있을 수 있다는 것을 미리 밝힌다. Course objectives Empirical study를 면밀하게 디자인하고 데이터를 분석하고, 인사이트를 이끌어내는 방식을 가르친다. 양적 연구를 위한 통계학적 기법들을 익히면서 과학적 증거를 이용한 연구를 목표로 한다. 정량 분석 현상을 일반화하기 위해 객관적인 측정 척도로 데이터를 정량화한다. 연구자는 모두가 동의할 수 있는 일반적인 사실을 강조한다. 정성 분석 직관적인 통찰로 현상의 의미를 이해한다. 연구자는 각각의 현상학적인 관점을 반영한다. 4가지 관점으로 차이..
답안What’s the trade-off between bias and variance?편향(일관성)과 분산(변화)사이의 트레이드 오프. Error = noise(데이터 본질의 한계치, irreducible error) + bias + variance (reducible error)학습 모형이 입력 데이터에 얼마나 의존하는지에 관한 질문. bias : 지속적으로 잘못된 것을 학습하는 경향 (예측과 타겟 오차의 평균)(underfitting) high bias(데이터 내의 모든 정보를 고려하지 못한다, 간단한 모델), low variance(새로운 데이터가 와도 변하지 않을것) variance : highly flecible models에 데이터를 fitting 시킴으로써 실제 현상과 관계 없는 rando..
볼 때마다 헷갈린다. Entropy : 그 정보를 전달하는데 필요한 최소 비트 수정보를 알기 위해 얼마나 많은 데이터가 필요한가 우리가 가지고 있지 않은 정보 양우리가 얼마나 모르고 있나 - log p(x) : p(x)가 1 이하의 확률값이기 때문에, 음수가 나와서 -를 붙여준다. log 그래프를 생각하면 이해가 쉽다. 즉, 어떤 기호가 나올 확률이 작으면 그 기호가 나오는 것을 알기 위해서 많은 정보가 필요하다. (Entropy가 크다)반면에 기호의 확률이 높을 경우 우리는 적은 정보로 유추가 가능하다. (Entropy가 작다) cross entropy를 많이 사용한다.1이나 0으로 분류하는 경우에는 다음과 같다.- target log predict- (1 - target)log(1 - predict)..
- 미국
- MOCA
- 성차별
- SanDiego
- san diego
- 여행
- San Francisco
- Sustainability
- lalaland
- 학회
- 카카오뱅크
- 성격특성
- 연구방법론
- 페미니즘
- 전월세대출
- Irvine
- 인생의 발견
- 라라랜드
- LA
- 성격심리학
- 일상
- santa barbara
- 부
- 신한은행
- 성격의 탄생
- 청년전세대출
- 인생의발견
- SIGGRAPH
- 게티
- 그리니치
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |