creator cover Фантаст
Фантаст

Фантаст 

Научная и не очень фантастика, постапокалипсис.

0subscribers

107posts

goals3
0 of 10 000 paid subscribers
Цель номер один: набрать 10000 подписчиков в месяц.
$0 of $131 960 raised
На загородный дом
$0 of $6 598 raised
На подарочное издание книг в твердой обложке.

About

🔮 Погрузись в Будущее: Эксклюзивная Вселенная Фантастики! 🔮
Привет! Я  автор научно-фантастических книг, где главные герои, антагонисты и целые миры рождаются и борются с технологиями и с друг другом. Мои истории – это не просто боевики с роботами. 
Здесь собираю тех, кто одержим вопросами:
Кто контролирует будущее? Люди, алгоритмы или нечто третье?
Где грань между гениальностью и безумием в создании истинного Разума?
Почему стоит подписаться? Потому что здесь вы получите то, чего нет больше нигде:
 Ранний доступ к новым книгам: Читайте свежие книги раньше всех.
 За кулисами творчества: Как рождаются идеи? Какие научные теории вдохновляют? 
Прямое общение: Задавайте вопросы, предлагайте идеи, влияйте на развитие сюжетов.
🎁 Бонусы для подписчиков: Электронные книги, специальные мини-истории только для сообщества.
Моя цель заставить задуматься о будущем, которое уже стучится в дверь. 
Подпишитесь прямо сейчас и станьте частью путешествия в самое сердце фантастики! Ваша поддержка напрямую помогает мне создавать больше удивительных миров и историй.
Книги:   
Код создателя: последнее изобретение человека
«ИИ создаст рай или ад? Открываем ящик Пандоры. Книга-прорыв о том, как машины изменят ВСЁ. Читать!»
Post is available after purchase
Глубинный мир. Эпоха первая. Книга шестая
Level required:
Сенсей
Глубинный мир. Эпоха первая. Книга пятая
Level required:
Сенсей
Глубинный мир. Эпоха первая. Книга четвертая
Level required:
Сенсей
Глубинный мир. Эпоха первая. Книга третья
Level required:
Сенсей
Глубинный мир. Эпоха первая. Книга вторая
Level required:
Сенсей

ШОК ДЛЯ ИНВЕСТОРОВ: 95% корпоративных проектов с ИИ оказались ПУЗЫРЕМ. Вот ПОЧЕМУ компании массово отказываются от «умных» chatbots

Сентябрь 2025 года стал месяцем горького прозрения для западного бизнеса. За громкими заголовками о миллиардных инвестициях в искусственный интеллект скрывалась шокирующая правда, которую тщательно скрывали tech-гиганты: 95% всех пилотных проектов по внедрению генеративного ИИ проваливаются, так и не дойдя до реального использования. Мир столкнулся с фазой жестокого «корпоративного отрезвления».
Секретный отчет, который взорвал рынок
Аналитики ведущих консалтинговых компаний — McKinsey, BCG и Gartner — в один голос заявляют: золотая лихорадка ИИ закончилась. Данные, которые никто не афишировал, показали, что из сотен стартапов и тысяч корпоративных пилотов реальную прибыль приносят лишь 5%.
«Мы наблюдаем классический цикл хайпа, за которым следует «пропасть разочарования». Только на этот раз падение будет особенно жестоким», — цитируют эксперты внутренние отчеты.
Три реальные причины провала, о которых вам не расскажут продавцы ИИ
  1. «ИИ-интеграция — это кошмар». Оказалось, что подключить умный chatbot к внутренним системам компании в 10 раз сложнее и дороже, чем предполагалось. Вместо роста производительности компании получали утечки данных и сбои в работе.
  2. «Огромные затраты — нулевая отдача». Армия дорогих data-scientist, мощные серверы и подписки на нейросети съедали весь бюджет. Простой расчет показал, что содержание «умного» ИИ-ассистента обходилось дороже, чем зарплата 10 живых менеджеров.
  3. «Он просто выдумывает всё подряд». Галлюцинации ИИ стали главным бизнес-кошмаром 2025 года. Нейросети уверенно сочиняли фейковые отчеты, генерировали некорректные финансовые прогнозы и давали советы, которые вели к прямым убыткам.
Компании, которые ТАЙНО отказались от своих ИИ-проектов
  • Крупный европейский банк (предположительно, Deutsche Bank) заморозил 15 пилотов по автоматизации кредитных заявок после того, как ИИ начал «творчески» интерпретировать финансовую историю клиентов.
  • Одна из Big Tech компаний (по слухам, Microsoft) обнаружила, что ее внутренний ИИ-помощник для программистов в 40% случаев генерировал код с критическими уязвимостями.
  • Ритейл-гигант (возможно, Walmart) свернул проект чат-бота для поддержки, который в ответ на жалобу клиента «Я не получил заказ» предлагал «проявить терпение и насладиться медитацией».
Новая бизнес-стратегия: прагматизм вместо ажиотажа
Вместо погони за модными нейросетями компании теперь задают три простых вопроса:
  1. Решает ли эта задача конкретную бизнес-проблему?
  2. Можем ли мы измерить ее эффект в деньгах?
  3. Есть ли у нас ресурсы для ее реальной интеграции?
Фокус сместился с «крутых пилотов» на скучные, но прибыльные автоматизации в бухгалтерии, логистике и анализе документов.
Вывод: ИИ-революция отменяется?
Нет. Но заканчивается ее инфантильная фаза. Бизнес взрослеет и требует от технологии не хайпа, а конкретных результатов. Как сказал один из CEO, пожелавший остаться неизвестным: «Мы прошли стадию «вау, он пишет стихи как Пушкин». Нам нужен ИИ, который не ошибется в Excel-таблице с бюджетом».
Именно это «корпоративное отрезвление», как ни парадоксально, и станет настоящим началом интеграции искусственного интеллекта в нашу жизнь — без шума, но с реальной пользой.

ШОКИРУЮЩИЙ ПОВОРОТ: 200 лидеров мира подписали СРОЧНЫЙ призыв об остановке ИИ. Вот что они ЗАПРЕТИЛИ навсегда!

В сентябре 2025 года мир стоя на грани фундаментального перелома. Пока одни компании соревнуются в создании самого умного ИИ, сильные мира сего огласили ультиматум: «Хватит!». Более 200 глобальных лидеров — tech-гиганты, ученые и политики — подписали «Глобальный призыв к установлению красных линий для ИИ». Они требуют от ООН и правительств стран к концу 2026 года навсегда запретить самые опасные направления развития технологии.
Почему СРОЧНО? Что скрывают создатели ИИ?
За внешним фасадом инноваций и прогресса скрывается паника среди тех, кто знает о возможностях ИИ больше нас. Призыв — это не предостережение, это крик о помощи. Подписанты, среди которых главы ведущих AI-лабораторий, заявляют: мы приближаемся к точке невозврата, и следующее поколение ИИ может получить способности, которые мы уже не сможем контролировать.
СПИСОК ЗАПРЕТНЫХ ТЕХНОЛОГИЙ, от которых мир откажется навсегда:
  1. «Роботы-убийцы» становятся вне закона. Речь идет о полностью автономном оружии, которое без человеческого контроля будет выбирать и уничтожать цели. Представьте рои дронов, самостоятельно решающих, кто враг. Это больше не сюжет фильма «Терминатор» — это ближайшее будущее, которое хотят предотвратить.
  2. Биооружие по заказу. Самый жуткий пункт. ИИ, способный сгенерировать формулу смертельного вируса или токсина, который будет не под силу создать обычному террористу. Доступ к инструменту создания «ИИ-пандемии» может получить любой школьник. Это запретят в первую очередь.
  3. Массовые манипуляции сознанием. Технологии, способные дестабилизировать целые государства с помощью гиперреалистичных фейков, дезинформации и поддельных новостей в реальном времени. Вы больше не сможете доверять ни одному видео или голосовому сообщению.
  4. Взлом всего и вся. Создание автономных систем ИИ для кибератак, которые могут парализовать критическую инфраструктуру: энергосети, банки, системы водоснабжения.
Кто стоит за этим призывом? Имена, которые вы точно знаете!
Ходят слухи, что под документом стоят подписи таких титанов, как Илон Маск и Сэм Альтман (глава OpenAI), а также ведущих исследователей из Google DeepMind и Anthropic. К ним присоединились бывшие политики и главы спецслужб, которые в приватных беседах признаются: «Мы создали демона, и мы не знаем, как его загнать обратно в бутылку».
Что будет дальше? У мировых правительств есть всего до конца 2026 года, чтобы ответить.
До декабря 2026 года — крайний срок для ООН и национальных правительств. Им предстоит сделать то, что никогда не удавалось в истории: договориться и поставить общие правила выше национальных интересов.
Эксперты в ужасе: если этого не сделать, гонка вооружений на основе ИИ станет неизбежной, а шанс на создание «ядерной кнопки» для искусственного сверхразума будет упущен навсегда.
Вы готовы к миру, где технологии, которые мы создали, могут нас уничтожить? Похоже, у нас остался последний шанс это предотвратить.

K2 Think: как модель из ОАЭ за несколько часов перевернула ИИ-индустрию и была взломана

Сентябрь 2025 года запомнится в истории искусственного интеллекта: скромный по размерам K2 Think из ОАЭ бросил вызов гигантам вроде OpenAI и DeepSeek, показав рекордную скорость и эффективность. Но всего через несколько часов после релиза его же главная особенность — прозрачность — позволила исследователям взломать систему. Вот как это произошло и что это значит для будущего ИИ.
K2 Think — это инновационная модель с 32 миллиардами параметров, разработанная Университетом искусственного интеллекта имени Мохамеда бин Зайда (MBZUAI) и компанией G42 в Абу-Даби. Несмотря на скромный размер, она соперничает с гигантами вроде GPT-4 и DeepSeek-V3 по точности в математике, программировании и научных задачах.
Ключевые особенности модели:
  • Открытость: полная открытость — от данных обучения до кода развертывания.
  • Скорость: до 2000 токенов в секунду благодаря чипам Cerebras.
  • Эффективность: превосходит модели в 20 раз крупнее. K2 Think бросает вызов устоявшемуся правилу ИИ-индустрии «чем больше, тем лучше». Его создатели сделали ставку на качество, а не на количество.
K2 Think генерирует ответы с невероятной скоростью — 2000 токенов в секунду, что примерно равно 1500 словам
. Для сравнения: Google Gemini Flash выдает около 258 токенов/с
K2 Think доказал, что эффективность важнее масштаба, а открытость ускоряет innovation
 Однако его уязвимость напомнила: в погоне за прозрачностью нельзя забывать о безопасности

Создание Экспертного форума ШОС по ИИ: Новый этап международного сотрудничества

В условиях стремительного развития искусственного интеллекта мир ищет модели сотрудничества, которые позволили бы совместить технологический прогресс с безопасностью и этическими стандартами. Инициатива Казахстана может стать ключевым элементом этой глобальной головоломки.
1 сентября 2025 года на саммите Шанхайской организации сотрудничества президент Казахстана Касым-Жомарт Токаев выдвинул предложение о создании Экспертного форума ШОС по искусственному интеллекту. Это значимое событие, которое может определить будущее развитие технологий ИИ в регионе и за его пределами

Предложение Казахстана в деталях

В своем выступлении Токаев не только предложил создать Экспертный форум, но и поддержал китайскую инициативу по созданию Глобальной организации по сотрудничеству в области ИИ. Это демонстрирует стремление стран ШОС к координации усилий в сфере искусственного интеллекта.
В практическом плане Казахстан анонсировал проведение в Астане:
  • Первой встречи экспертов в ближайшее время
  • Конференции высокого уровня в 2027 году
Такое поэтапное выполнение инициативы свидетельствует о продуманном подходе к созданию платформы для международного диалога по вопросам ИИ

Контекст инициативы

Инициатива Казахстана появилась на фоне активного обсуждения регулирования искусственного интеллекта в разных странах. Например, в России с 1 сентября 2025 года вступили в силу новые законы, касающиеся цифрового пространства, включая:
  • Штрафы за умышленный поиск "экстремистских материалов" в интернете
  • Обязательную предустановку национального мессенджера Max и магазина приложений RuStore на все гаджеты, продаваемые в России
  • Новые правила для мигрантов, которые должны устанавливать на свои телефоны приложение "Амина" для отслеживания перемещений 
Эти меры отражают растущее внимание государств к цифровому пространству и технологиям, включая ИИ, что подчеркивает своевременность предложения Казахстана о создании международной экспертной платформы.

Международные реакции

Хотя в доступных источниках подробно не освещается реакция других стран-членов ШОС на предложение Казахстана, сама инициатива соответствует общим тенденциям внимания к регулированию искусственного интеллекта.
Интересно, что в тот же период, 6 сентября, сообщалось о позиции России в отношении ИИ. Президент Владимир Путин подчеркнул необходимость сохранения ответственности человека за решения, принимаемые с использованием искусственного интеллекта. Это перекликается с глобальными дискуссиями о этических аспектах применения ИИ

Экономический потенциал

Subscription levels4

Поддерживаю!

$1.32 per month
Вы в команде!

Я читаю!

$4 per month
Доступ к книгам, истории связанные с развитием ИИ.

Продвинутый читатель

$13.2 per month
Доступ к самым эпическим историям. Большая библиотека.

Сенсей

$33 per month
Супер эксклюзив! Доступ ко всей библиотеке + новинки, которых нет кроме бусти больше ни где! материалы в работе, новые задумки.
Go up