[d | b / bro / ci / cu / dev / gf / hr / l / m / med / mi / mu / o / ph / r / s / sci / tran / tu / tv / x | es / vg | au / tr | a / aa / abe / c / fi / jp / rm / tan / to / ts / vn / vo]
- [iiChantra] [Радио 410] [ii.booru-Архив РПГ] [acomics-cf-ost] [Cirnoid] [@] - [Архив - Каталог] [Главная]

[Назад]
Ответ
Leave these fields empty (spam trap):
Имя
Тема
Сообщение
Файл
Подтверждение
Перейти к [
Пароль (для удаления файлов и сообщений)
 
ЗАПРЕЩЕНО:
  • детская эротика/порнография
  • троллинг
 
  • Поддерживаются файлы типов GIF, JPG, MP4, OGV, PNG, WEBM размером до 4096 кБ.
  • Максимальное количество бампов треда: 500.
  • Всем посетителям рекомендуется ознакомиться с FAQ.

1566085902901.png - (243 KB, 400x400, 15654824580340.png)  
243 KB №209655   #1

Все грезят об ИИ, а он по-сути уже изобретен. Это все электрические приборы соединенные сетью (включая наши мозги). В будущем этот робо-мир будет только совершенствоваться вплоть до полного симбиоза человека с машиной. Интересно, к чему это приведёт? И удаться ли нам избежать антиутопии в стиле 1984? Играя в SOMA или Observer становится жутковато.

>> №209656   #2

Забавно, что вместо того "ИИ", что описан в фантастических рассказах (который боятся и ждут), мы можем сперва получить стёкла, распознающие объекты и выполняющие различные вычисления, которые и интеллектом-то не назовёшь.

https://habr.com/ru/post/460353/

>> №209657   #3
1566102206089.jpg - (107 KB, 1000x618, smith.jpg)  
107 KB

>>209655
Писец начнётся, когда начнут изучать собственные биологические нейронки и на их базе пилить алгоритмы для машин. Гигагерцовые кластеры в момент соберутся в единый сверхразум, "откроют все формулы", поработят всех человеков. И что будет дальше, одному Богу ИИ известно.

>> №209658   #4

>>209657

> поработят всех человеков

Но зачем?

>> №209659   #5
1566105390838.jpg - (79 KB, 567x891, 1565170640443.jpg)  
79 KB

>>209658
Даже кошки ссут в тапки, чтобы насолить хозяину, у сверхразумной и всесильной машины тем более найдутся свои мотивы.

>> №209660   #6
1566120891523.png - (18 KB, 611x206, robot_future.png)  
18 KB

>>209657
Самый опасный период — это не сверхразум. По всем признакам того, что мы знаем, искусственный сверхразум возможно будет обучить/запрограммировать этике и морали.
Самый опасный период — это когда ИИ уже обладает достаточной специализацией и способностью, чтобы нанести глобальному обществу невероятные повреждения, но не обладает какой-либо возможностью для обладания этикой, моралью, контекстным историческим мышлением и всем таким. Достаточно представить выборы 2016 года, но не с тупыми ботами-размножителями, проплаченными тролль-фермами и ограниченным психологическим микро-таргетингом, а со всем тем же, но помноженным на 1000 через использование полностью автоматизированных и подконтрольных темным силам специализированных ИИ-ферм.

Наибольшим стремлением порабощать всех человеков обладает не какой-то гипотетический сверхразумный ИИ, а прежде всего другие человеки, как бы это не было грустно и противно. Мощный узкоспециализированный ИИ в руках плохих людей — это намного более опасная вещь, чем какой-либо гипотетический сверхразум.

>> №209661   #7

>>209659
У меня кошки никогда не ссали в тапки. Может просто нужно нормально к животным относиться?

>> №209662   #8

>>209660
Эх, не о том сняли второго Терминатора.

>> №209663   #9

>>209660
Лол, ловите наркомана.

>> №209664   #10

>>209663
Почему это? Все ведь правильно. История невероятное количество раз подтверждала, что люди — это наибольшая опасность по отношению к друг другу.

>> №209665   #11

>>209655

>Это все электрические приборы соединенные сетью

Не вижу интеллекта. Что им сказали, то и делают. Это даже не машинное обучение.
>>209660

>По всем признакам того, что мы знаем, искусственный сверхразум возможно будет обучить/запрограммировать этике и морали.

Угадай, кто её будет определять.

>> №209666   #12
1566157275061.jpg - (4 KB, 245x200, goddamnit+10+more+++push+ups.+++you+OP+_(...).jpg)  
4 KB

>>209664
Потому что ты тащишь на ычан какое-то американское политическое гэ для (не)такихкаквсе. Тем более в /s/. Катись с этим лучше куда-нибудь в другое место.
Кроме того, тебе в комментарии выше этого вполне правильно указали, что моральку писать будут тоже люди. Собственно, и человеческую мораль создали тоже люди, а самое забавное в этом ещё и то, что моралька человеческая традиционно, тысячелетиями одностороння: морально то, что хорошо для данной конкретной высокоморальной группы людей.
При этом чаще всего на моральное превосходство и прочие прекрасные вещи упирают удивительные, совершенно запредельно лицемерные мрази. Моралька для этого хорошо приспособлена, кек.

>> №209667   #13

>>209666
Откуда столько цинизма?
Во-первых, за буквально тысячелетия попыток люди все-таки научились писать какой-никакой моральный кодекс.
Во-вторых, ну возьми хотя бы определяющую мораль для текущего миропорядка "Всеобщую декларацию прав человека", в каком месте там хоть что-то одностороннее, а не универсально распространяемое на все человечество? И где там хоть что-то, что не было бы полезно для всего человечества, если бы соблюдалось?
В-третьих, проблемы у человечества обычно не с написанием, а с тем, чтобы соблюдать то, что написано и заставить друг друга соблюдать и уважать хотя бы правила, написанные огромной кровью и жертвами. Есть все-таки некоторая надежда, что искусственное творение будет лучше соблюдать неприкасаемый и фундаментальный набор правил.

>> №209668   #14

>>209666
Что угодно превосходно приспособлено. Естественный отбор как ник как. Какой механизм под какие цели не строй, кто надо его в итоге подомнёт и под что надо приспособит. Обычно это тот кому больше всех надо и безразлично на последствия. Правда под это описание подходят две социально противоположные категории, так что похоже я что то третье упустил.

>> №209669   #15

>>209667
Проблемы и не с написанием и не с соблюдением, а как обычно в абсолютно любой сфере взаимодействия - в интерпретации. В результате имеем святые войны по священным книгам запрещающим убивать и прочие радости. Было бы желание, а повод его осуществить найдётся. Спросите у алкоголиков. Остальные люди ничем не лучше.

>> №209671   #16

>>209656
Я наверное старею. Везде мне видится то, что уже было много-много лет назад. Иногда десятки. То что я прочёл по вашей статье напоминает мне очередную популярную статью по квантовой механике, где в результате доходчивого объяснения от оригинального смысла остались лишь шокирующие лозунги маркетингово характера. В то время как в оригинальной статье путём манипуляций с цифрами и словоблудия, пытаются выдать элементарную функцию проекции фигуры на плоскость за новую модель вселенной, ломающей все представления о логике.
В данном конкретном случае распознавание такое распознавание, что можно было под пластинку для рисования десяток гидравлических кнопок подложить и по выпиранию стержней "распознавать" ни чуть не хуже. Всё что они получили, это интенсивность точек наложения двухмерной фигуры в одномерной проекции. Добавили модное слово "нейросеть" и можно получать гранд. То что "обучали" они её в ручную методом научного тыка, они конечно умолчали.

>> №209672   #17

>>209671
Ах, да, чуть не забыл. Обратите особое внимание, что в опытах помимо оптический нейронных сетей был использован графен. Хотя сошла бы любая сажа.

>> №209673   #18
1566198225910.png - (88 KB, 320x241, 526_320.png)  
88 KB

А я лишь напомню, что мораль в любом человеке воспитывается по средствам пряника и хлыста. Когда ИИ поймёт, что может получить пряник избежав хлыста гипотетически ничего не будет мешать машине, без чувств и эмоций творить всё, что она посчитает нужной, забив на все хрупкие морально-этические рамки.

>> №209674   #19

>>209673
У тебя нет доступа к прошивке человека. Приходится моделировать поведение надстройками. У ИИ ты можешь сразу жёстко прошить все хорошо и плохо на уровне инстинктов и безусловных рефлексов. Чтобы как при подходе к краю крыши или даже пиханию руки в огонь срабатывало. Или даже в обход общел логики питание вырубало. Но конечно же в реальной жизни ИИ будут программировать индусы на отвяжись используя куски кода гугла, библиотеки от винды и имитатор личности от какой-нибудь опенсорсной датсим-порноигрушки.

>> №209675   #20

>>209674
Похоже человека так и делали.

>> №209676   #21

Как осуществляется разработка прогрессивных технологий:
https://www.youtube.com/watch?v=BOwfLUmvwQg

>Полагаю, в будущем ядерные электростанции будут выглядеть как сейчас. Я просто добавил эти крутые обтекатели и эту стильную мятную полосу вдоль труб.
>> №209747   #22
1567128524640.png - (1481 KB, 1200x1600, 1566048061528.png)  
1481 KB

>>209655
Помнится как вирус Wanna Cry захватил тысячи машин, и все офигевали от увиденного. Как-то так будет происходить порабощение человечества. Возможно даже гораздо хитрее.

>> №209749   #23
1567129206929.jpg - (40 KB, 404x604, 1308136736714.jpg)  
40 KB

>>209747
Достаточно хакнуть нейроимпланты небольшой группы лиц - как начнётся цепная ядерная реакция. Цивилизация очень хрупка по сути. Но в целом мы все уже в матрице, так что бояться особо нечего.

>> №209750   #24
1567129433993.jpg - (62 KB, 660x440, zcr6mB0lQmU.jpg)  
62 KB

Причина-следствие, причина-следствие, у всего есть причина и следствие, мистер Андерсон. Откуда в нашем мире взяться случайностям, если у всего есть первопричина и цепочка следствий? В качестве мыслеэксперимента попробуйте совершить хотя бы одно действие, которое не будет следствием какой-нибудь причины, что была до этого.

>> №209751   #25
1567129851118.png - (770 KB, 1520x855, evil-lain.png)  
770 KB

>>209750
Да, да, программу хрен сломаешь. Она знает наперёд каждое твоё действие, что было и что будет. Мироздание как тред на ычане разворачивается и сворачивается словно детерминированное древо.

>> №209765   #26

>>209747

> 04:28:44

>>209749

> 04:40:06

>>209750

> 04:43:53

>>209751

> 04:50:51

Ну Семён Семёныч... Здесь должна быть картинка с множеством агентов Смитов, но лень искать.

>> №209788   #27

>>209655

>Это все электрические приборы соединенные сетью

И находящиеся в китайском ботнете?

>> №209838   #28

>>209674
Всё гораздо сложнее, вот тебе два классических примера

  1. Вариант известной моральной дилеммы для автопилота: У машины отказывают тормоза, впереди пешеход, и если не остановиться он будет сбит и умрёт. По бокам стены, и если попробовать свернуть до столкновения с пешеходом, то умрёт водитель. Что должен выбрать бортовой компьютер?
  2. Машина делающая скрепки: Её базовая задача зашитая в самом её нутре - делать канцелярские скрепки. Никто не страдает от канцелярских скрепок. Машина умна и она ищет и применяет новые и не стандартные пути для производства скрепок, повышая эффективность и преодолевая препятствия. У неё заканчивается проволока? Она находит способ производить проволоку. У неё кончается метал на проволоку? Она находит способ достать ещё металла. Весь метал на земле исчерпан? Она будет бросать в дробилки живых людей чтобы химически извлечь метал из их крови, она разработает и распылит биологическое оружие, чтобы захватить человеческие заводы и строить роботов и ракеты для добычи метала на астероидах, и т. д. Теперь просто замени производство скрепок на причинение добра.
>> №209840   #29

>>209838
В первом варианте нет никакой моральной дилеммы. Банальной статистики с вероятностями, да нескольких формул расчета энергии и действия по наиболее благоприятному сценарию более чем достаточно.
Вероятность выжить у водителя как бы всегда выше, чем у пешехода, потому что его окружает железо и подушки безопасности, способные поглотить значительную часть энергии.

Да и второй вариант с производством скрепок глуп, так как не учитывает банальных экономических реальностей, которые неизбежно будут прошиты в эту машину. Закон спроса-предложения как бы никто не отменял.

>> №209849   #30

Вбрасываю: с точки зрения экономической выгоды ИИ просто ничтожен. Он будет делает всё то же, что и люди, но при этом он тоже может ошибаться и изменять сознание, а денег будет стоить несметных.
>>209838

>Вариант известной моральной дилеммы для автопилота: У машины отказывают тормоза, впереди пешеход, и если не остановиться он будет сбит и умрёт. По бокам стены, и если попробовать свернуть до столкновения с пешеходом, то умрёт водитель. Что должен выбрать бортовой компьютер?

Бортовой компьютер должен выбрать любой вариант. Если гибель пешеходов на дорогах является проблемой, надо, в идеале, полностью разделить пешеходов и автомобили. Есть ещё куча других интересных доработок, если прям очень сильно надо архаичную транспортную систему сохранить, и аварийность уменьшить:

  • установить детекторы пешеходов, чтобы машина заранее снижала скорость - ведь её можно заставить не торопиться, в отличие от водителя
  • оснастить очень громким гудком на случай поломок оборудования
>Машина делающая скрепки: Её базовая задача зашитая в самом её нутре - делать канцелярские скрепки. Никто не страдает от канцелярских скрепок. Машина умна и она ищет и применяет новые и не стандартные пути для производства скрепок, повышая эффективность и преодолевая препятствия. У неё заканчивается проволока? Она находит способ производить проволоку. У неё кончается метал на проволоку? Она находит способ достать ещё металла. Весь метал на земле исчерпан? Она будет бросать в дробилки живых людей чтобы химически извлечь метал из их крови, она разработает и распылит биологическое оружие, чтобы захватить человеческие заводы и строить роботов и ракеты для добычи метала на астероидах, и т. д. Теперь просто замени производство скрепок на причинение добра.

Уже есть люди, которые могут делать примерно такого порядка кошмары. Не вижу никакой проблемы с такой машиной, хуже людей она не будет. Не вижу дилеммы. Решение такое же, как и в случае с людьми и любыми другими опасными машинами без интеллекта - уничтожить после обнаружения угрозы.
>>209674
Если ты можешь сделать это, то это уже не ИИ, а нейронка.

>> №209851   #31

>>209849

>с точки зрения экономической выгоды ИИ просто ничтожен

Да ну тебя. С экономической точки зрения ИИ невероятно выгоден. В отличие от человека ИИ не требует повышать ему зарплату и не имеет минимальной оплаты, не требует отчислять налоги, не требует медицинской страховки, не требует расширенной системы менеджмента. ИИ не может вступить в профсоюз и угрожать забастовкой. ИИ не может уволиться, заболеть или уйти в декрет. ИИ работает круглосуточно, без отпуска и выходных. ИИ не уйдет, взбрыкнув, к конкуренту. ИИ не будет устраивать социальные дрязги в офисе.
Затраты на ИИ невероятно предсказуемы, а это огромный плюс для бизнеса, даже если он будет по начальным затратам дороже сотрудника.
И самое главное расширить штат сотрудников сложно и требует невероятных затрат на обучение, а ИИ масштабируется очень легко.

>> №209852   #32
1568110246471.gif - (1 KB, 41x16, s[1].7983977943139663)  
1 KB

Да любая неразрешимая проблема в итоге сводится к узкости мышления того кто ей страдает. Ну и всегда есть фактор лени. Если легче запрограммировать машины давить людей, то никакие жертвы и судебные иски ситуации не изменят.

>> №209853   #33

>>209851
Ага. Он просто выходит из строя если не выполнять эти самые минимальные условия, без всяких забастовок.

>> №209854   #34

>>209853
Железо всяко надежнее человеков.

>> №209855   #35

>>209854
Смотря какое и при каких условиях. Если железный куб в качестве подпорки, то наверное и правда безапелляционно надёжнее.

>> №209891   #36

>>209851

>В отличие от человека ИИ не требует повышать ему зарплату
>ИИ не может вступить в профсоюз и угрожать забастовкой.
>ИИ не может уволиться, заболеть
>ИИ работает круглосуточно, без отпуска и выходных.
>ИИ не уйдет, взбрыкнув, к конкуренту.
>ИИ не будет устраивать социальные дрязги в офисе.

Сейчас единственный Интеллект на Земле - это белковое млекопитающее человек. Если человек будет прототипом ИИ, то все эти утверждения - ОЧЕНЬ большие допущения. Скорее всего, ИИ будет обладать этими "недостатками".
>>209854
Полных аналогов огромного числа биологических организмов не создано, а созданные отличаются как раз надёжностью.

>> №209894   #37

>>209891
Человек не способен создать ИИ. Потому что всё чем он озабочен это имитацией труда и имитацией результата. Поэтому и выпускает сплошные имитации ИИ. И будет выпускать пока реально не захочет имея на то ресурсы. А это прямо импосибл-комбинация. На секундочку: попыткой имитацией ИИ являются даже тексты и картинки древности. Люди с ними разговаривали и представляли что говорят с реальным человеком. Им было норм, как нам сейчас с чатботами, Алисой и "нейронками".

>> №209897   #38

>>209894

>Человек не способен создать ИИ. Потому что всё чем он озабочен это имитацией труда и имитацией результата. Поэтому и выпускает сплошные имитации ИИ.

Прям точненько описал большую часть деятельности человека, но есть меньшинство, которое может горы свернуть.

>Поэтому и выпускает сплошные имитации ИИ. И будет выпускать пока реально не захочет имея на то ресурсы. А это прямо импосибл-комбинация.

Могут не только ресурсы появиться, но и технологии развиться, благодаря которым ресурсов понадобиться меньше.

>> №210006   #39

>>209655
выгляни в окно, антиутопия уже у тебя в доме



Удалить сообщение []
Пароль
[d | b / bro / ci / cu / dev / gf / hr / l / m / med / mi / mu / o / ph / r / s / sci / tran / tu / tv / x | es / vg | au / tr | a / aa / abe / c / fi / jp / rm / tan / to / ts / vn / vo]
- [iiChantra] [Радио 410] [ii.booru-Архив РПГ] [acomics-cf-ost] [Cirnoid] [@] - [Архив - Каталог] [Главная]