„Fernsehen ist das neue Kino“, schwärmen amerikanische Regisseure gern: weil das US-TV mit seinen Serien längst viel wagemutiger ist als Hollywood. In Deutschland gilt die Erkenntnis mittlerweile auch, allerdings in Bezug auf