Падение биткоина. Начало конца?

Что привело к падению биткоина?


Еще в начале года российский Центробанк заявил, что обмен биткоинов на рубли или валюту в России будет рассматриваться как "потенциальная вовлеченность в сомнительные операции в соответствии с законодательством о противодействии отмыванию доходов, полученных преступным путем, и финансированию терроризма" и рассказал, что совместно с Генпрокуратурой РФ разрабатывают инструменты по борьбе с обращением биткоинов в России.

Ну, здесь все ясно -при расчете биткоинами информация о продавце и покупателе остается анонимной, а как такое может понравиться ФСБ или Центробанку?

Но в сентябре гром, все-таки, прогремел. Государственный Народный банк Китая наложил запрет на Initial Coin Offering (ICO). Т.е. запрет на использование биткоинов  при привлечении инвестиций в новые технологические проекты и стартапы.

Центробанк КНР пояснил, что подобные ICO проводятся с валютой, которая не имеет юридически закрепленного статуса, и пригрозил штрафами тем, кто продол…

Медиа фальсификации – новая угроза.

Станут ли генеративные нейросети создателем фейковых новостей? Скорее всего – да. Но распространение фальшивых новостей — это лишь первая волна фейкового контента, нашествие которого стоит ожидать в ближайшие годы.

Генеративные нейросети (GAN) уже позволяют создавать видеоролики, на которых люди делают то, чего не делали, и говорят то, что никогда не говорили. Журнал The Economist объясняет, как устроен новый мультимедийный мир, в котором ничему нельзя доверять.

Медиа фальсификации | Стартап ньюс

Генеративные нейросети могут вывести фальшивые новости на новый уровень, в котором фейковые видеоролики и аудиодорожки нельзя будет отличить от настоящих. Принцип работы GAN-систем прост. Нейросети изучают статистические характеристики аудиозаписи, а затем воспроизводят их в другом контексте. При этом они улавливают изменения в речи с точностью до миллисекунды. Достаточно ввести текст, который нейросеть должна воспроизвести, и получится правдоподобное выступление, например, Трампа или другого политика. Хотя на самом деле никакого выступления не было.

В апреле канадский стартап Lyrebird опубликовал набор алгоритмов, которые могут сымитировать голос любого человека. Для обучения системе достаточно прослушать звуковой файл длиной не больше 1 минуты. Алгоритм не только имитирует голос, но и может добавлять нужную эмоциональную окраску.

Новый голосовой цифровой редактор представила и компания Adobe. Аудиоредактор позволяет вырезать произнесенные слова и вставлять на их место новые.

Генерирование изображений до сих пор удавалось нейросетям с трудом. Даже после просмотра сотен картинок с собаками и кошками, нейросеть не могла нарисовать убедительное вымышленное животное.

Созданные ученым Яном Гудфеллоу GAN-системы изменили ситуацию. При запуске GAN одна нейросеть пытается обмануть другую, имитируя реальное изображение. Вторая нейросеть при этом контролирует процесс и сопоставляет генерированный контент с реальной базой изображений.

GAN уже удается по описанию составить довольно точный «фоторобот» птицы, хоть и небольшого размера. К тому же системы постоянно совершенствуются. По прогнозам Гудфеллоу  через три года YouTube заполнят фейковые ролики. Другие эксперты считают, что на налаживание процессов медиа фальсификации уйдет больше времени, но рано или поздно это точно произойдет.

Программа Face2Face уже позволяет переносить движения, мимику и фразы любого пользователя на видеоролик с другим человеком. Разработчики, например, показали, как можно удаленно поменять выражение лица Трампа на видео с помощью специальной программы.

Проблему медиа фальсификаций усугубит и вирусный кросспостинг. К сожалению, уже сейчас в погоне за трафиком многие недалекие новостные сайты начинают делать перепост непроверенных «жареных» новостей, невольно способствуя обману читателей.

Медиа фальсификации | Стартап ньюс

После всех этих наработок и невесёлых перспектив развития медиа фальсификаций возникает вопрос: как с этим бороться?

С интернет-пользователями всё ясно. Скорее всего, со временем в арсенале каждого пользователя окажется устройство для верификации контента. Это может быть программа для изучения метаданных или система, которая исследует задний план фото или видео, сопоставляя местность с данными на Google Earth. Кроме того, защититься от нашествия фейков поможет и специальное шифрование.

А вот как защититься от потоков лживой информации, которая новой волной польется на электорат с телевизионных экранов? Наверное, никак :(

_______________________________

Рекомендуем почитать:


Комментарии

Подпишитесь на обновления блога и Вы узнаете много интересного!
___________________________________________________________________________________