Снова списком в Полит.Ру — http://www.polit.ru/country/2010/06/23/govweb.html
А чуть позже будет страницей-списком в ГосСети.
На сей раз это список не по главным страницам с инструкциями в тэгах meta, а на уровне robots.txt.
Фактически там сайты у которых в robots.txt есть текст глобальной блокировки
User-Agent: * Disallow: /
При этом у некоторых могут быть индивидуальные разрешения, например, гугловому краулеру, но это скорее редкость к тому же режим «кое-что разрешено» сильно отличается от режима «кое-что запрещено».
Да, а всем кто думает что у нас «всё плохо» рекомендую почитать http://radar.oreilly.com/2009/11/robotstxt-and-the-gov-tld.html
У нас просто напросто грамотность среди людей отвечающих за госсайты гораздо ниже, вот и блокируют сайты реже.
И, конечно, список сайтов в Госсети всё ещё неполон. Федеральные структуры охвачены почти все, а вот муниципалитетов и субъектов пока ещё не так много как хотелось бы. Но всё постепенно выправляется.
А я напомню что Государственная сеть — это проект разработанный для Полит.Ру и систематизирующий информацию о государственной части Рунета.