El marketing surgió como una rama de la Economía de la Empresa y sus principales conceptos los tomó de los teóricos de esta ciencia, que en general se habían formado en países europeos. Sin embargo, fue en Estados Unidos donde el marketing tomó mayor energía y conformó un cuerpo más sólido, propiciado por la situación que este país disfrutaba en la primera mitad del siglo XX, donde a una potencia económica emergente con un potente mercado unificado se le sumó un escenario alejado de las terribles guerras mundiales que tuvieron lugar durante este siglo.