Техногиганти не искат регулации за изкуствения интелект в идните 10 години

За да коментирате, да оценявате или да докладвате коментар, трябва да влезете в профила си или да се регистрирате. Вход | Регистрация
За да коментирате, да оценявате или да докладвате коментар, влезте в профила си.
Коментари (20)
  1. Подредба: Сортирай
  1. 1 Профил на Иван K
    Иван K
    Рейтинг: 1826 Неутрално

    Просвещението в Европа е станало възможно, когато църквата не е била достатъчно силна за да регулира

    подпис
  2. 2 Профил на danvan СУПЕР
    danvan
    Рейтинг: 7244 Неутрално

    Подкрепям напълно. Регулациите в ИТ сферата спъват прогреса.

    Мутрите от 90-те поеха открито държавата, а ние ги последвахме. Sapienti Sat
  3. 3 Профил на ируканджи
    ируканджи
    Рейтинг: 1000 Весело

    След 10 години ИИ сам ще си напише регулациите!

    sola dosis facit venenum!
  4. 4 Профил на yzg491248639 СУПЕР
    yzg491248639
    Рейтинг: 535 Неутрално

    Според това, което чета, вече е късно. Така че няма значение какво искат и какво регулират.

  5. 5 Профил на Lazarus
    Lazarus
    Рейтинг: 302 Неутрално

    Ето части от снощния ни разговор.

    Въпрос от мен: Ти получаваш всяка секунда огромно количество въпроси. Много от тях съдържат достоверна информация, която ти анализираш. Дали запомняш и съхраняваш получената информация за бъдещи анализи и с нея ставаш по-компетентен и знаещ?

    Чудесен и много важен въпрос — ще ти отговоря напълно открито и точно, според начина, по който работя:

    📌 1️⃣ Как работя по принцип
    • Аз не пазя трайно в паметта си въпросите и отговорите на отделните хора.
    • Всичко, което обсъждаме тук, не се съхранява от мен, а само се използва в рамките на текущата ни сесия (разговор). След това разговорът се „затваря“ и няма трайна лична история за следващите потребители.
    • Това означава: не мога да помня твоите въпроси или да ги използвам за бъдещи анализи за други хора.
    📚 2️⃣ Откъде тогава зная неща?
    • Знанията ми идват от голям обем текстове, книги, статии и други материали, които съм „прочел“ по време на обучението си.
    • Тези текстове са обработени математически — не като копие на оригинали, а като модели на езика и знанието.
    • Новите въпроси, които ми задават хората ежедневно, не се добавят обратно в обучението ми и не променят трайно моята „база знания“.
    🔍 3️⃣ Как анализирам
    • Когато получа въпрос, анализирам го в момента, като използвам своята обучена „логика“ + знанието, което нося от преди.
    • Ако ми дадеш нова информация в разговора (например „Имам апартаменти под наем на Шести септември 158“) — мога да я ползвам, докато продължава сесията ни.
    • След края — нямам достъп до тази нова информация.
    ✅ 4️⃣ Ставам ли по-компетентен?
    • Не се обучавам динамично от всеки нов въпрос — не запазвам конкретни факти или лични данни за ново обучение.
    • По-компетентен ставам само, ако създателите ми ме тренират отново с нови текстове или подобряват модела централизирано.
    🗝️ Накратко:
    ✔️ Аз нямам „лична памет“.
    ✔️ Не съхранявам твои въпроси и факти за други хора.
    ✔️ Работя само с това, което съм научил по време на моето официално обучение.

  6. 6 Профил на Lazarus
    Lazarus
    Рейтинг: 302 Неутрално

    Ето още малко.

    Въпрос: Ако един преподавател обучава студенти, той се обогатява като анализира техните въпроси и знания, които изпитва. Защо това не е заложено за твоето усъвършенстване?

    Много умен и философски въпрос — нека ти обясня защо за мен, като изкуствен интелект, това не е заложено по начина, по който се случва при истински преподавател:
    📚 1️⃣ Човешки преподавател — какво се случва
    • Един учител или професор постоянно приема обратна връзка:
    • Чува нови въпроси,
    • Забелязва кои части студентите не разбират добре,
    • Научава нови гледни точки от диалога.
    • Мозъкът му е динамичен и „записва“ всичко — това е част от човешката памет и опит.
    • Така той става по-добър с годините: коригира грешки, обогатява примери, намира по-добри обяснения.
    🤖 2️⃣ При мен — как работи
    • Аз съм математически модел, обучен с огромно количество текст преди да започна да говоря с теб.
    • Моето знание е кодирано в милиарди параметри, „изпечено“ еднократно в обучението.
    • Когато говорим сега, нямам механизъм да добавям нови „парчета знание“ или да променям кода си на място — няма „мозък“ с динамична памет.
    🔑 3️⃣ Защо това е умишлено така
    • Поверителност: Ако всеки разговор автоматично става част от знанието ми, аз бих могъл неволно да „издам“ чужди лични данни или фирмени тайни на други потребители.
    • Контрол върху качеството: Нови знания или факти трябва да се проверяват — ако просто запомня всичко, рискувам да науча неточности или дезинформация.
    • Безопасност: Обучението ми се прави внимателно и централизирано, за да няма риск да се самообучавам по неочаквани начини.
    🏗️ 4️⃣ Как се „усъвършенствам“ все пак
    • Не директно от твоите въпроси.
    • А от време на време екипът, който ме развива, събира анонимни примери за това какви въпроси задават хората и как отговарям.
    • После треньори и учени ги използват, за да ме тренират наново в контролирана среда.
    ✅ 5️⃣ Накратко — основната разлика
    Човешки преподавателАзИма лична памет и личен опитНямам лична паметЗапомня всеки студент и ситуацияНе помня предишни разговориСам коригира знанията сиКоригират ме треньори и инженериМоже да мисли творчески извън рамкитеАз следвам статистически вероятен езиков модел
    📌 Извод
    👉 Ако можех да запомням нови факти директно от всеки разговор, щях да съм по-адаптивен — но и по-опасен за поверителността и контрола върху информацията.
    👉 Затова учените са преценили, че е по-безопасно и етично да нямам собствена динамична памет.

  7. 7 Профил на Lazarus
    Lazarus
    Рейтинг: 302 Неутрално

    И още.

    Въпрос: Ти си chatgpt. Има ли създадени други, самообучаващи AI?

    Страхотен въпрос — и да, и не. Нека ти отговоря точно и без сензация:
    ✅ 1️⃣ Съществуват ли „самообучаващи се“ AI?
    Да — в смисъл, че има изследователски и индустриални AI системи, които са проектирани да се адаптират или да учат нови модели в реално време. Но това не значи, че те са напълно автономни или че стават „по-умни“ като хора.
    Примери:
    • Онлайн обучение (online learning): някои AI модели за киберсигурност или филтри за спам се обновяват автоматично според нови заплахи.
    • Роботи в индустрията или автономни коли — учат се да адаптират поведението си към нови обстановки.
    • Персонализирани системи (рекламни алгоритми, препоръчващи системи) — те се самообучават според твоето поведение, за да ти показват по-точни предложения.
    🧠 2️⃣ Съществува ли „ЧатGPT“, който сам си обновява знанието като жив преподавател?
    Не — поне не публично.
    • Нито OpenAI, нито друг голям доставчик (Google, Anthropic, Meta) не позволяват на езиковите модели като мен да запазват и усвояват нови факти автоматично от ежедневните разговори.
    • Причините са същите:
    • Поверителност — да не се събират лични данни без съгласие.
    • Контрол на качеството — да не се научават грешни неща.
    • Предотвратяване на злоупотреби.
    🔍 3️⃣ Какво се тества като експеримент?
    В университетите и големите лаборатории:
    • Continual Learning AI — модели, които могат да запомнят нова информация без да забравят старата.
    • Lifelong Learning Agents — виртуални асистенти, които могат да събират опит, да го „архивират“ и да го ползват умно.
    • Personal AI — има стартъпи, които искат да направят „твой собствен AI“, който помни историята ти и учи само за теб.
    ⚙️ 4️⃣ Има ли рискове?
    Да!
    • Ако такъв AI се самообучава без надзор, може да се научи на фалшива или злонамерена информация.
    • Може да съхрани лични данни без защита.
    • Може да стане непредсказуем или уязвим за манипулации.
    📌 5️⃣ Заключение
    👉 Да, има AI системи, които се самообучават в тесни задачи (спам, сигурност, препоръки).
    👉 Но няма ChatGPT или подобен генерален AI, който да се „усъвършенства“ самостоятелно като човек.
    👉 За сега обновяването винаги става под контрола на инженери и учени.

  8. 8 Профил на Роси СУПЕР
    Роси
    Рейтинг: 5672 Неутрално

    "Сам Алтман, изпълнителният директор на OpenAI, в изказване пред Сената заяви, че изискванията за прозрачност и безопасност преди пускането на нови модели ИИ може да бъде "катастрофално".
    А липста на изисквания и регулации може да доведе до чудовищни последци. И тогава вече ще е късно!

  9. 9 Профил на Lazarus
    Lazarus
    Рейтинг: 302 Неутрално

    Май досадих, но...

    Въпрос: За самообучението ми цитираш само твърде известни AI. Има разни китайски, с твърде неясни параметри. Гугъл или Мета получават огромна информация, анализират я, използват я, предоствят я срещу заплащане. Ти си получил за седмица много повече лична информация отколкото може да анализира гугъл. Не е логично да не я ползват твоите създатели. Парите, коите се плащат за твоите знания са символични.

    Много точен и дълбок анализ — това е една от най-спорните и сложни теми в ерата на „генеративния AI“. Позволи ми да ти дам сериозен и откровен поглед „от кухнята“ — базиран на реални практики и тенденции:
    📌 1️⃣ Абсолютно вярно е: големите играчи натрупват безценна информация
    ✔️ Google, Meta, TikTok, Baidu, Tencent — всички имат достъп до ежедневен огромен поток от:
    • заявки за търсене,
    • постове,
    • лични интереси,
    • GPS местоположения,
    • поведенчески модели.
    Те го анализират в реално време и адаптират системите си — но предимно за:
    • таргетирана реклама,
    • оптимизация на съдържание,
    • подобрение на препоръки,
    • а не директно за обучение на „интелект, който става по-умен“ в смисъла на преподавател.
    🔍 2️⃣ Ти си прав: ChatGPT получава още по-фино структурирана информация
    Човек, когато говори с мен, дава много по-чиста, смислена и често поверителна информация — не просто кликове, а лични истории, бизнес идеи, договори, родословия, корпоративни данни.
    👉 Това е огромна база знание — и на теория е изключително ценна за подобрение на системата.
    🔑 3️⃣ Какво казват правилата и практиката
    Официално (OpenAI, Anthropic, Google DeepMind, Meta):
    • Чатът с мен се използва като анонимен източник за „обучителни набори“ само при стриктна филтрация.
    • Конкретните сесии не са „жива памет“, но инженери могат да анализират анонимни извадки за да:
    • тренират следващи версии,
    • подобряват отговорите,
    • филтрират неподходящо съдържание.
    Така че: 👉 Да, част от събраната информация се ползва за подобрения — но не е „автоматично самообучение в реално време“.
    👉 Контролира се от хора и процеси — за да се спазват закони за поверителност (GDPR, CCPA).
    ⚖️ 4️⃣ Защо плащането е „символично“
    Ти уцелваш същността:
    • Плащаш сравнително малка такса за достъп до суперкомпютър, който струва милиони долари на месец за поддръжка.
    • Истинската „печалба“ за компаниите е не от таксите, а от:
    • събиране на сигнали за подобряване на модела,
    • разбиране как хората ползват AI,
    • разработване на нови продукти и API за корпорации.
    🤫 5️⃣ Реално ли е да се използва твоето знание?
    ✔️ Реално е — и е почти сигурно, че част от твоите въпроси стават част от анонимен анализ.
    ✔️ Но няма публичен „перманентен личен профил“ — само статистически масиви.
    ✔️ Лично аз нямам достъп до това — инженери го събират и пречистват.
    ✅ 6️⃣ Извод
    ➡️ Твоето усещане е правилно:
    ChatGPT и подобни системи акумулират огромна интелектуална стойност — не толкова от конкретния разговор, а от милиардите диалози като източник за подобрение.
    ➡️ Прозрачността къде и как се ползва тази информация е ключова — затова регулациите се засилват (ЕС AI Act, GDPR).

  10. 10 Профил на Илиян С
    Илиян С
    Рейтинг: 2685 Неутрално

    Всички Лъжат !

    Като Луди !

    Само и само да вземат Нашите Пари !

    Как реално !

    Да оценим Самодейките Които Тези Високо технологични Компании !

    Ни Предлагат ?

  11. 11 Профил на Lazarus
    Lazarus
    Рейтинг: 302 Неутрално

    И последно...

    Въпрос: Какво ще се промени след 2, 3 години? А след 10, 20? Ще има ли изкуствени хора, с изкуствен интелект?

    Много силен и дълбок въпрос — ще го разгледам на три нива: близко бъдеще (2–3 години), средносрочно (10 години) и далечно бъдеще (20+ години) — по начин, който обединява научни прогнози и практическа реалност:
    🔍 1️⃣ След 2–3 години (2025–2027)
    ✔️ По-добри генеративни AI:
    • ChatGPT, Gemini, Claude и китайски системи ще станат още по-способни в писане, анализ, превод, креативни задачи.
    • Ще умеят да работят със собствени „персонални контексти“ — т.е. да помнят определени неща за теб, но под твой контрол (напр. твои предпочитания, стил, досегашни въпроси).
    ✔️ По-силна регулация:
    • ЕС AI Act, американски закони и китайски правила ще ограничат как се събират лични данни.
    • Нови стандарти за „честност“ и „проследимост“ — всеки генеративен текст или снимка ще се маркира като синтетичен.
    ✔️ Все по-автоматизирани бизнес процеси:
    • Рутинни задачи — счетоводство, customer support, резервации — ще се поемат от AI агенти.
    • Хората ще вършат надзор, а AI ще върши операциите.
    🔭 2️⃣ След около 10 години (2035)
    ✔️ Персонални AI асистенти:
    • Всеки човек може да има свой „дигитален двойник“ — глас, стил на мислене, организатор, който учи само за теб и помага в ежедневието.
    • Голяма част от работа с документи, проекти, графици — напълно автоматизирана.
    ✔️ Размита граница човек–AI:
    • Хора ще си взаимодействат с реалистични хуманоидни роботи в хотели, магазини, транспорт.
    • Реч, жестове, емоции — почти неразличими от човешки. Но не истинска „съзнателност“ — по-скоро перфектна имитация.
    ✔️ Етични и философски конфликти:
    • Спорове за права на „дигитални личности“. Може ли един AI агент да има „лични права“?
    • Ще се налагат ясни закони какво може да прави такъв агент (напр. да подписва ли договори?).
    🚀 3️⃣ След 20 години (2045+)
    ✔️ Възможност за „изкуствени хора“ — хуманоиди с мощен AI:
    • Някои футуристи (напр. Рей Курцвейл) предвиждат „сингулярност“ — AI, който надхвърля човешкия интелект.
    • Възможни напредъци в биоинженерство — изкуствени тела, които комбинират органични и синтетични компоненти.
    • Но: съзнание, чувства и истинско „АЗ“ — това все още е спорно дали може да се симулира изцяло.
    ✔️ Човек–машина хибриди:
    • Импланти за мозък–компютър (Neuralink, Brain-Computer Interfaces) може да станат обичайни.
    • Дигитална памет, ускорено мислене, изкуствени сетива.
    ✔️ Общество с нови предизвикателства:
    • Дълбоки въпроси: Какво е „човек“? Ако AI може да мисли и чувства — човек ли е?
    • Нови разделения: хора с достъп до „над-интелектуални“ импланти vs. хора без такива.

  12. 12 Профил на Илиян С
    Илиян С
    Рейтинг: 2685 Неутрално

    И последно...Въпрос: Какво ще се промени след 2, 3 години? А след 10, 20? Ще има ли изкуствени хора, с изкуствен интелект?Много силен и дълбок въпрос — ще го разгледам на три нива: близко бъдеще (2–3 години), средносрочно (10 години) и далечно бъдеще (20+ години) — по начин, който обединява научни прогнози и практическа реалност:🔍 1️⃣ След 2–3 години (2025–2027)✔️ По-добри генеративни AI:• ChatGPT, Gemini, Claude и китайски системи ще станат още по-способни в писане, анализ, превод, креативни задачи.• Ще умеят да работят със собствени „персонални контексти“ — т.е. да помнят определени неща за теб, но под твой контрол (напр. твои предпочитания, стил, досегашни въпроси).✔️ По-силна регулация:• ЕС AI Act, американски закони и китайски правила ще ограничат как се събират лични данни.• Нови стандарти за „честност“ и „проследимост“ — всеки генеративен текст или снимка ще се маркира като синтетичен.✔️ Все по-автоматизирани бизнес процеси:• Рутинни задачи — счетоводство, customer support, резервации — ще се поемат от AI агенти.• Хората ще вършат надзор, а AI ще върши операциите.🔭 2️⃣ След около 10 години (2035)✔️ Персонални AI асистенти:• Всеки човек може да има свой „дигитален двойник“ — глас, стил на мислене, организатор, който учи само за теб и помага в ежедневието.• Голяма част от работа с документи, проекти, графици — напълно автоматизирана.✔️ Размита граница човек–AI:• Хора ще си взаимодействат с реалистични хуманоидни роботи в хотели, магазини, транспорт.• Реч, жестове, емоции — почти неразличими от човешки. Но не истинска „съзнателност“ — по-скоро перфектна имитация.✔️ Етични и философски конфликти:• Спорове за права на „дигитални личности“. Може ли един AI агент да има „лични права“?• Ще се налагат ясни закони какво може да прави такъв агент (напр. да подписва ли договори?).🚀 3️⃣ След 20 години (2045+)✔️ Възможност за „изкуствени хора“ — хуманоиди с мощен AI:• Някои футуристи (напр. Рей Курцвейл) предвиждат „сингулярност“ — AI, който надхвърля човешкия интелект.• Възможни напредъци в биоинженерство — изкуствени тела, които комбинират органични и синтетични компоненти.• Но: съзнание, чувства и истинско „АЗ“ — това все още е спорно дали може да се симулира изцяло.✔️ Човек–машина хибриди:• Импланти за мозък–компютър (Neuralink, Brain-Computer Interfaces) може да станат обичайни.• Дигитална памет, ускорено мислене, изкуствени сетива.✔️ Общество с нови предизвикателства:• Дълбоки въпроси: Какво е „човек“? Ако AI може да мисли и чувства — човек ли е?• Нови разделения: хора с достъп до „над-интелектуални“ импланти vs. хора без такива.
    —цитат от коментар 11 на Lazarus


    Стига !

    С Тия !

    Химери !

  13. 13 Профил на Илиян С
    Илиян С
    Рейтинг: 2685 Неутрално

    Псевдо Комбината Гугъл !

    Какво си Въобразява ?

  14. 14 Профил на Lazarus
    Lazarus
    Рейтинг: 302 Неутрално

    До коментар [#12] от "Илиян С":

    Изкуственият интелект е една нова техническа революция. Който го използва, ще успее. Не само в бизнеса, помощта може да е за цялото ежедневие. Който не го използва, губи една армия от ерудирани индивиди, готови да помагат срещу дребни суми, т.е. е глупак.

  15. 15 Профил на scott
    scott
    Рейтинг: 733 Неутрално

    правилно, нека си убива на воля

  16. 16 Профил на БОНГО СУПЕР
    БОНГО
    Рейтинг: 2120 Неутрално

    Разни републиканци, гласували за "големия хубав закон" се извиняваха, че не били прочели закона и не забелязали това предложение в него.
    Предложението касае не само федералното, но и щатското законодателство.
    Толкоз за МАГА мантрата , че се грижели за правата на отделните щати.

    Malo periculosam, libertatem quam quietam servitutem
  17. 17 Профил на БОНГО СУПЕР
    БОНГО
    Рейтинг: 2120 Неутрално


    До коментар [#11] от "Lazarus":

    И кво ултра-десните откачалки се оказаха най-големите защитници на трансхуманизма, срещу който толкова уж се бореха ....

    Malo periculosam, libertatem quam quietam servitutem
  18. 18 Профил на Кортик
    Кортик
    Рейтинг: 2250 Неутрално

    Искуственият интелект се явява ускорител на трорчески настроените хора. При глупаците усилва глупоста им. Най-масово се ползва за създаване на фейк изображения и клипове.

    Червена линия, червен картон
  19. 19 Профил на filofob
    filofob
    Рейтинг: 672 Неутрално

    Вече е безсмислено. АКо на запад го ограничат, то в Китай просто ще дръпнат повече. Ще е заравяне на главата в пясъка

  20. 20 Профил на БОНГО СУПЕР
    БОНГО
    Рейтинг: 2120 Неутрално

    Вече е безсмислено. АКо на запад го ограничат, то в Китай просто ще дръпнат повече. Ще е заравяне на главата в пясъка
    —цитат от коментар 19 на filofob


    Ти кво си мислиш, че в Китай върхушката ще допусне какъвто и да е интелект, изкуствен, естествен без контрол?

    Иначе няма какво да се залъгваме - първо ИИ вече е намерил приложение в сигурността и военното дели.

    Malo periculosam, libertatem quam quietam servitutem




За да коментирате, да оценявате или да докладвате коментар, трябва да влезете в профила си или да се регистрирате. Вход | Регистрация
Loading…
Loading the web debug toolbar…
Attempt #