https://www.dushevoi.ru/products/dushevye-kabiny/90x90/uglovye/s-nizkim-poddonom/ 
А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  A-Z

 

Одна из самых известных - и самая неправдоподобная - касается робота, созданного в те примитивные времена, который благодаря какой-то ошибке в производстве, получил телепатические способности.
- Как?!
- Я же вам сказал, что это легенда. Есть некоторые теоретические основания предположить, что это возможно, но никто никогда не представлял проекта, как можно включить такую способность. Но чтобы она могла появиться в позитронном мозге, простом и грубом, какие были до гиперпространственной эры - это вообще немыслимо. Поэтому мы полностью уверены, что эта легенда - вымысел. Но позвольте мне рассказать ее, потому что у нее есть мораль.
- В любом случае, давайте.
- Робот этот умел читать мысли. И когда ему задавали вопросы, он отвечал спрашивающему то, что тот желал услышать. По Первому Закону, робот не может нанести человеку вред, но роботы обычно имеют в виду виду вред физический. Робот, читающий мысли, видимо, решил, что разочарование, злость или другие жестокие эмоции делают человека несчастным, и он относил эти эмоции под рубрику "вред". И если робот-телепат знал, что правда будет неприятна вопрошающему, он говорил ему приятную ложь. Понимаете?
- Да, конечно.
- Итак, робот солгал самой Сьюзен Келвин. Ложь скоро вышла наружу, потому что разные люди слышали разные вещи, которые оказывались не только несовместимыми между собой, но и шли в разрез с очевидностью. Сьюзен Келвин обнаружила, что робот солгал ей и что эта ложь поставила ее в неудобное положение и принесла ей тяжелое разочарование. Вы никогда не слышали этой истории?
- Нет, даю слово.
- Поразительно! Она наверняка придумана не на Авроре, ибо одинакова на всех мирах. И Келвин решила отомстить. Она указала роботу, что, говорит ли он правду или ложь, он одинаково вредит тому, с кем имеет дело, и в обоих случаях нарушает Первый Закон. Робот, поняв это, пришел к вынужденному бездействию. Говоря более красочно, его позитронные пути сгорели, мозг оказался непоправимо разрушенным.
- Как я понимаю, нечто вроде этого случилось с Джандером Пэнелом? Он встретился с противоречием в словах, и мозг его сгорел?
- П_о_х_о_ж_е_ на то, хотя это не так легко сделать, как во времена Сьюзен Келвин. Может быть, из-за этой легенды роботехники всегда затрудняют возможность противоречий. Поскольку теория позитронного мозга становится все более тонкой, а практические проекты - все более замысловатыми, были созданы невероятно удачные системы для всех ситуаций, могущих иметь неадекватное решение, так что любое действие всегда можно перевести как повиновение Первому Закону.
- Значит, вы не можете сжечь мозг робота. Вы это имеете в виду? Если так, то что случилось с Джандером?
- Нет, я не это имел в виду. Невероятно удачные системы, о которых я говорил, никогда не бывают _п_о_л_н_о_с_т_ь_ю_ удачными. Не могут быть. Как бы тонок и сложен ни был мозг, всегда есть какой-то путь поставить противоречие. Это основная математическая истина. И шанс на противоречие никогда не удается свести к нулю. Тем не менее, этот шанс настолько близок к нулю, что довести мозг до умственного замораживания может только очень знающий теоретик.
- Вроде вас.
- Вроде меня. А в случае человекоподобного робота - только я.
- Или вообще никто, - иронически заметил Бейли.
- Или вообще никто. Точно, - сказал Фастальф, игнорируя иронию. Человекоподобные роботы конструируются в намеренной имитации человека. Позитронный мозг очень нежен и так же хрупок, как и человеческий. Как у человека может быть удар от какого-либо события, удар изнутри, без вмешательства внешнего эффекта, так и человекоподобный мозг может от случайных бесцельных движений позитронов впасть в умственное замораживание.
- Вы можете это доказать?
- Я могу доказать это математически, но лишь тем, кто понимает математику, и не все согласятся, что рассуждение веское. Оно включает некоторые мои предположения, которые не соответствуют обычной манере мыслить в роботехнике.
- Какова вероятность самопроизвольного умственного замораживания?
- Если взять, скажем, сто тысяч человекоподобных роботов, то с одним из них за время жизни аврорца может случится такое. Но может и раньше, как случилось с Джандером.
- Послушайте, доктор Фастальф, если вы убедительно докажете, что самопроизвольное умственное замораживание может произойти вообще, это не будет доказательством, что такая вещь случилась с Джандером в частности.
- Нет, - согласился Фастальф. - Вы правы.
- Вы, величайший роботехник, не можете доказать этого в специфическом случае с Джандером.
- Вы опять-таки правы.
- Тогда почему вы надеетесь на меня? Что я могу сделать, если я ничего не смыслю в роботехнике?
- Тут и не нужно ничего доказывать. Достаточно представить предположение, что именно могло вызвать самопроизвольное умственное замораживание. Предположение, приемлемое для широкой публики.
- Например?
- Не знаю.
- Вы уверены, что не знаете? - резко спросил Бейли. - Позвольте мне указать вам на одну вещь. Я думаю, аврорцы в основном знают, что я приехал на эту планету с целью взяться за вашу проблему. Трудно было бы привезти меня сюда тайно, учитывая, что я землянин, а это Аврора.
- Да, конечно, и я не пытался это сделать. Я посоветовался с Председателем Совета и убедил его дать мне разрешение привезти вас. Таким образом я добился отсрочки суда. Вам дается шанс раскрыть тайну до того, как я предстану перед судом. Сомневаюсь, что отсрочка будет долгой.
- Я повторяю: аврорцы знают, что я здесь и предполагаю разрешить загадку смерти Джандера.
- Конечно. Другой причины не могло быть.
- И с тех пор, как я сел на корабль, вы держите меня под замком и под охраной, чтобы ваши враги не попытались устранить меня, словно я какой-то кудесник и обязательно приведу вас к победе, несмотря на все неблагоприятные обстоятельства.
- Боюсь, что так.
- А допустим, кому-то из ваших врагов удалось убить меня; не окажется ли это вам на пользу? Не скажут ли люди, что ваши враги сами считают вас невиновным, иначе они не боялись бы расследования и не желали бы убить меня?
- Довольно сложное рассуждение. Полагаю, что ваша смерть, правильно организованная, могла бы послужить такой цели, но этого не произойдет. Вы под защитой, и вас не убьют.
- Но _з_а_ч_е_м_ защищать меня? Почему не позволить убить меня и использовать мою смерть как путь к победе?
- Я предпочел бы, чтобы вы остались в живых и действительно продемонстрировали бы мою невиновность.
- Но вы знаете, что я _н_е_ м_о_г_у этого сделать.
- А вдруг сможете? У вас есть стимул: от вашего дела зависит благополучие Земли и, как вы сами сказали, ваша карьера.
- А что толку в стимуле? Если вы прикажете мне взлететь на потолок, угрожая в случае неудачи мучительной смертью, стимул у меня будет, но взлететь я все равно не смогу.
- Я знаю, что шансы очень малы, - неохотно сказал Фастальф.
- Вы знаете, что их не существует, - яростно сказал Бейли, - и только моя смерть может спасти вас.
- Ну, тогда я не буду спасен, поскольку забочусь, чтобы мои враги не дотянулись до вас.
- Но _в_ы_ можете дотянуться до меня. Вы сами могли бы убить меня и подстроить дело так, будто это сделали ваши недруги. И тогда вы могли бы использовать мою смерть против них. И вот почему вы привезли меня на Аврору.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83
 https://sdvk.ru/Sanfayans/Unitazi/roca-dama-senso-346517000-product/ 

 Марацци Итали Treverkpaint