IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start.bg Chernomore Posoka Boec
BGONAIR Live

Един от "кръстниците" на ИИ с нови предупреждения


Обратно в новината

Коментари

Напиши коментар Коментари

20
Анонимен
преди 1 година
Харесвам 0 Не харесвам 0
Да ви се връща!
отговор Сигнализирай
19
Анонимен
преди 1 година
Харесвам 0 Не харесвам 0
До Анонимен 15Това няма да промени нищо в голямата игра.Разсъждаваш прекалено дребнаво и емоционално.Всеки един момент може да те убие машина.Самолет,автомобил,проблем в ел инсталацията и тн и тн.
отговор Сигнализирай
18
до 15-ти То и сега
преди 1 година
Харесвам 5 Не харесвам 0
"елита" иска да останат само 500 милиона на планетата. Каква е разликата? Освен това, ИИ как по-точно ще ни избие? Като превземе светофарната мрежа ли? Или като смени разписанието на автобусите? За управление на ядрени оръжия и дума не може да става, никоя армия няма да се мине да отстъпи това решение на някой политик, камо ли на виртуален такъв.
отговор Сигнализирай
17
ХА-ХА-ХА-ХААААААААА
преди 1 година
Харесвам 6 Не харесвам 2
Роботите - Никога Няма Да Могат да Еволюират Сами - Защото Човека има 3-неща които Роботите Никога Няма да Имат - Защото са Проости Машини - и тези 3-неща са - Фантазия, Мечти и Чувства - Без Тях - Еволюция Не е Възможна .........ХА-ХА-ХА-ХАА-ХААА-ХААААААА, ХА-ХА-ХА-ХАА-ХААА-ХААААААА
отговор Сигнализирай
16
IQ 3.14
преди 1 година
Харесвам 4 Не харесвам 7
поредната чичка дето са го самонапуснали от гугъл и вместо да джаска маргарити некъде по плажовете се е отурил в конспиративни теории. властите имат контрол от момента, в който е прозвучал първия хендшейк на телефонен модем
отговор Сигнализирай
15
Анонимен
преди 1 година
Харесвам 8 Не харесвам 2
"Машините са безкрайно логични и рационални освен когато не се повредят.Логично би било да редуцират количества хора които са безмислени." - Именно затова са опасни. Утре ще решат, че трябва да останат само 500 млн. човека и да избият останалите. Ти откъде си сигурен, че ще си от тези, които са симпатични на машините? Може даже да си първият, който ще отстрелят.
отговор Сигнализирай
14
Анонимен
преди 1 година
Харесвам 2 Не харесвам 5
Яко раздухва щото иска финансиране.След като е ТОЛКОВА СТРАШНО защо го разработвахте 10-15 години? Може да отнеме контролът по чисто логически причини.Осъзнавайки че хората са по-нисши съответно по-неспособни за продължаващите действия.Естествено това няма да стане като във филмът "терминатор" би било безмислено е и ще бъдат изразходвани много ресурси.Машините са безкрайно логични и рационални освен когато не се повредят.Логично би било да редуцират количества хора които са безмислени.
отговор Сигнализирай
13
Анонимен
преди 1 година
Харесвам 7 Не харесвам 1
Нека ИИ да пусне една анкета към всички хора кой иска да ги управлява - сегашните 'елити' или ИИ. Отговорът е ясен и ще е много на малко. Ето ви един световен референдум.
отговор Сигнализирай
12
ХА-ХА-ХА-ХААААААААА
преди 1 година
Харесвам 7 Не харесвам 5
Късно е Батеее....Във Китай Вече Хиляди ИТ Фирми Разработват ИИ - И Няма да Спрат, Даже и Държави като Турция може би Изпреварват САЩ в това направление - Според Мен - Задължително Трябва Да Има Защитно - *Стоп* Копче ...Но , Не Плашете Хората - Роботите Ще Вършат Черната Работа - Държавата Ще Събира Пари от Данъците - И ще Ги Раздава на Хората - Без Да Работят Черна Работа - Ще Живеем Като Белите Хора - Стига с Този Труд - Няма Да Работим - Да Работят Роботите.....ХА-ХА-ХА-ХАА-ХААА-ХААААААА
отговор Сигнализирай
11
Анонимен
преди 1 година
Харесвам 4 Не харесвам 0
Ще изживеем "Терминатор" май май
отговор Сигнализирай
Новини