OneEconStory
OneEconStory
  • 62
  • 2 254

วีดีโอ

Microeconomics 11 KT conditions for solving UMP
มุมมอง 12 ชั่วโมงที่ผ่านมา
Microeconomics 11 KT conditions for solving UMP
Microeconomics 10 Walrasian demand
4 ชั่วโมงที่ผ่านมา
Microeconomics 10 Walrasian demand
Microeconomics 9 Utility maximization problem
4 ชั่วโมงที่ผ่านมา
Microeconomics 9 Utility maximization problem
Microeconomics 8-3 Quasiconcave and concave utilities
มุมมอง 57 ชั่วโมงที่ผ่านมา
Microeconomics 8-3 Quasiconcave and concave utilities
Microeconomics 8-2 proof of existence of continuous utility
มุมมอง 257 ชั่วโมงที่ผ่านมา
Microeconomics 8-2 proof of existence of continuous utility
Microeconomics 8-1 Continuous preference and continuous utility
มุมมอง 57 ชั่วโมงที่ผ่านมา
Microeconomics 8-1 Continuous preference and continuous utility
Microeconomics 7-2 further example of continuous preference
มุมมอง 89 ชั่วโมงที่ผ่านมา
Microeconomics 7-2 further example of continuous preference
Microeconomics 7-1 homothetic, quasilinear, continuous preference
มุมมอง 19 ชั่วโมงที่ผ่านมา
Microeconomics 7-1 homothetic, quasilinear, continuous preference
Microeconomics 6 Convex preference
มุมมอง 612 ชั่วโมงที่ผ่านมา
Microeconomics 6 Convex preference
Microeconomics 5 monotone preference
มุมมอง 416 ชั่วโมงที่ผ่านมา
Microeconomics 5 monotone preference
Microeconomics 4 Relationship between Preference based approach and choice based approach
มุมมอง 619 ชั่วโมงที่ผ่านมา
Microeconomics 4 Relationship between Preference based approach and choice based approach
Microeconomics 3 Choice based approach
มุมมอง 221 ชั่วโมงที่ผ่านมา
Microeconomics 3 Choice based approach
Microeconomics 2 Utility function
มุมมอง 3วันที่ผ่านมา
Microeconomics 2 Utility function
Microeconomics 1 Preference
มุมมอง 9วันที่ผ่านมา
Microeconomics 1 Preference
Reinforcement learning 5 Learn to communicate RIAL and DIAL
มุมมอง 2314 วันที่ผ่านมา
Reinforcement learning 5 Learn to communicate RIAL and DIAL
Reinforcement learning 4 DQN loss and experience replay
มุมมอง 114 วันที่ผ่านมา
Reinforcement learning 4 DQN loss and experience replay
Reinforcement learning 3 DQN
มุมมอง 414 วันที่ผ่านมา
Reinforcement learning 3 DQN
Game theory 22 Perfect Bayesian Equilibrium and Job Market Signaling
มุมมอง 2821 วันที่ผ่านมา
Game theory 22 Perfect Bayesian Equilibrium and Job Market Signaling
Game theory 21 Selten’s horse
มุมมอง 5321 วันที่ผ่านมา
Game theory 21 Selten’s horse
Game theory 20 sequential equilibrium
มุมมอง 1828 วันที่ผ่านมา
Game theory 20 sequential equilibrium
Game theory 19 perfect recall
มุมมอง 1028 วันที่ผ่านมา
Game theory 19 perfect recall
Game theory 18 extensive game with imperfect information
มุมมอง 528 วันที่ผ่านมา
Game theory 18 extensive game with imperfect information
Game theory 17 Screening (example of Bayesian game and mechanism design)
มุมมอง 14หลายเดือนก่อน
Game theory 17 Screening (example of Bayesian game and mechanism design)
Game theory 16 Second price auction
มุมมอง 3หลายเดือนก่อน
Game theory 16 Second price auction
Game theory 15 Bayesian Nash Equilibrium
มุมมอง 7หลายเดือนก่อน
Game theory 15 Bayesian Nash Equilibrium
Reinforcement learning 2 Bellman equation and Markov decision process
มุมมอง 11หลายเดือนก่อน
Reinforcement learning 2 Bellman equation and Markov decision process
Reinforcement learning 1 introduction
มุมมอง 15หลายเดือนก่อน
Reinforcement learning 1 introduction
Game theory 14 Find subgame perfect equilibrium by backward induction (Kuhn’s theorem)
มุมมอง 432 หลายเดือนก่อน
Game theory 14 Find subgame perfect equilibrium by backward induction (Kuhn’s theorem)
Game theory 12 Subgame perfect equilibrium
มุมมอง 122 หลายเดือนก่อน
Game theory 12 Subgame perfect equilibrium

ความคิดเห็น

  • @OneEconStory
    @OneEconStory วันที่ผ่านมา

    8:39 Complementary slackness 9, 10, 11 makes sure that the multipliers correspond only to active constraints (those constraints when they are binding, or =0). In this case, multiplier>0 reflects that this constraint is influencing the optimal solution.

  • @OneEconStory
    @OneEconStory 10 วันที่ผ่านมา

    21:46 here it should be since x is strictly preferred than y implies x is weakly preferred than y. Then transitivity gives x is weakly preferred to z.

  • @sanhan103
    @sanhan103 18 วันที่ผ่านมา

    Hi team, thank you very much for the tutorial session. It is very helpful. I just have one comment about the way you explain the calculation that started at 37:00-the payoff of the Prosecutor. I think that calculation should be called the probability that the designed investigation generates signal "g" which is: P(g)=pi(q|G)*mu_0(G) + pi(g|I)*mu_0(I) = 0.6 (or simply the marginal probability of signal g). From the previous results, we find that given a signal g is observed, the probability of guilty P(g|G) = 0.5. By common sense, the judge accordingly considers the case as Guilty (just like when the Probability of guilty is 0.3, as in the prior, the judge considers a case innocent. So, we achieved the result as mentioned in the paper, the judge will convict 60% of all cases. As the probability of conviction is now 0.6, the payoff of the prosecutor will be 0.6*1+0.4*0=0.6 (the same as you mentioned). I think it is a minor point but the related interpretation should be clear to avoid misunderstanding.

  • @OneEconStory
    @OneEconStory หลายเดือนก่อน

    43:18 with hidden info, PH decreases as mentioned, XL increases (note c’ decreases in x)

  • @OneEconStory
    @OneEconStory หลายเดือนก่อน

    17:59 bidding bi leads to payoff 0 since lost, less than a positive payoff if bid with vi.

  • @haydenp14
    @haydenp14 2 หลายเดือนก่อน

    looked forward to this, but couldn't understand through the mumbling

  • @OneEconStory
    @OneEconStory 2 หลายเดือนก่อน

    Intuitively, the one deviation property says that a strategy profile of a finite multi-stage extensive-form game with observed actions (perfect info) is a subgame perfect equilibrium (SPE) if and only if there exist no profitable single deviation for each subgame and every player. In simpler terms, if no player can increase their expected payoff by deviating from their original strategy via a single action (in just one stage of the game), then the strategy profile is an SPE. In other words, no player can profit by deviating from the strategy in one period and then reverting to the strategy.

  • @tomasaguirrelessavaz2731
    @tomasaguirrelessavaz2731 7 หลายเดือนก่อน

    Great video =)

  • @OneEconStory
    @OneEconStory 7 หลายเดือนก่อน

    8:45 the convex hull should be the overall convex set enclosing the function.

  • @OneEconStory
    @OneEconStory 8 หลายเดือนก่อน

    24:04 Correction: pi(s_1)=0.6, pi(s_2)=0.4