"После вашей передачи, пришло еще больше писем с вопросами, с одной стороны всё понятно, с другой - не совсем " ))))
@maratnews2 ай бұрын
Спасибо за видео, полезная информация!
@ai-iiru2 ай бұрын
@@maratnews Во благо!
@cryptodatex4 ай бұрын
Как мне повезло с вашим каналом!!! Здоровья и всяческих успехов вам!
@ai-iiru4 ай бұрын
@@cryptodatex Во благо!
@dlyabani3 ай бұрын
@@ai-iiru Приветсвую. а как спарсить статью целиком с картинками? Тут я так понял в ниндзяскрапере можно парсить только заголовки и описание мета. Если будет время добавьте подобный контент в видео. Спасибо
@AndriiMatvienko-uo4kg19 күн бұрын
какой код был в поле Extractor?
@DianaScorpio7775 ай бұрын
Столько всего интересного и полезного.Хорошо ,что Я подписалась .Спасибо .
@АлександрТрапезников-ю8д6 ай бұрын
классный инструмент - даже не знал о таком
@likanella6 ай бұрын
Боже мой! Гениально, именно это я для своего проекта и искала. Подскажите это платно, если да сколько стоит. Все парсеры морально устарели, а это то что доктор прописал! Искала две недели подобный механизм и когда опустила руки на вас наткнулась, это знак, что нужно продолжать проект.😊
@ai-iiru6 ай бұрын
Вы сделали мой день! Это же не сарказм, не? Можете на емайл ваши требования прислать, а дальше что смогу - сделаю. Стоимость опять-таки от сложности зависит
@VadNomad3 ай бұрын
много информации не показано. куда, что пишем.
@olkam48036 ай бұрын
Подскажите, пожалуйста, как вы подключили scrapeNinja у меня нет всех этих полей, только возможность подключить через RapidAPI Key scrapeNinja выбрала бесплатный план, но где найти key вообще не понятно.
@ai-iiru6 ай бұрын
У меня тоже бесплатный план, это на подключение не влияет. Регистрируйтесь в rapidapi, при подключении scrapeninja вводите в поля 'x-rapidapi-host' и 'x-rapidapi-key'; в make после connection вводите URL сайта и т.д. На каком этапе застряли?
@olkam48036 ай бұрын
@@ai-iiru спасибо, но все равно ошибка. В rapidapi зарегистрировалась. В make добавляю ScrapeNinja- предлагает только создать подключение, а там только 2 поля: имя соединения и RapidAPI key
@ai-iiru6 ай бұрын
Куда вам скинуть скрины? Тест мне на емайл отправьте, пожалуйста
@ai-iiru6 ай бұрын
Для вас загрузил видео про соединение ScrapeNinja, гляньте
@kasym291526 күн бұрын
api ключ как найти сайта от меня требует
@ai-iiru26 күн бұрын
@@kasym2915 какого сайта?
@allremont592 ай бұрын
Добрый день! Можно ли спарсить канал на дзене?
@ai-iiru2 ай бұрын
@@allremont59 Здравствуйте! Текст можно
@vsgnezdilov2 ай бұрын
Привет, как парсить не только текст, но и картинки с сайта?
@ai-iiru2 ай бұрын
@@vsgnezdilov Привет, картинки из кода страницы можно вытаскивать через регулярные выражения (regex)
@malmauer4 ай бұрын
мне надо на одном сайте сделать поиск, но поиск с рекапчей гугл, как в make заполнить поле для поиска и пройти рекапчу?
@ai-iiru4 ай бұрын
через make не получится, тут нужен скрипт, и то не факт, что пройдет
@ИванИванов-ы7л6у2 ай бұрын
Эээхх, мне все это надо было в 2017......
@alexandermalinin74113 ай бұрын
тоже не получается подключиться к rapidAPI:( зарегился там, вроде как нашел, где брать API, но при добавлении ключа make пишет ошибка 403 и да, присоединяюсь к вопросу ранее, если с помощью этого scrape ninja можно спарсить только заголовок и метаданные, а не всю страницу целиком, то в моем случае это будет бесполезно:( заранее спасибо за ответ
@ai-iiru3 ай бұрын
@@alexandermalinin7411 В другом сценарии собираю только текст (статью) со страницы. Что собирать зависит от скрипта, который Вы задаёте в теле модуля
@evtorg4647 ай бұрын
Второй способ отличный, все понятно. С первым вопросы про запросы этого скреперниндзи, не понятно как они делаются.
@ai-iiru6 ай бұрын
скреперниндзи? или вы про ScrapingBee?
@MultiVaper8 ай бұрын
Ого, вот это мощно! Спасибо за понятные объяснения. Правда начало видео "болтается"
@ai-iiru8 ай бұрын
да, есть такое, сам увидел на монтаже, не стал переснимать, сорян
@СергейПетров-ы9р2б4 ай бұрын
Здравствуйте! А авито можно?
@ai-iiru4 ай бұрын
@@СергейПетров-ы9р2б Что на авито нужно?
@sergstrue3623 ай бұрын
круто. а парсить после авторизации сможете, то есть зайти в с аккаунт и там систематически парсить ?
@ai-iiru3 ай бұрын
@@sergstrue362 Не, всякие капчи-логин-пароли не могём
@РусланКолач4 ай бұрын
Не могу настроить Google таблицы. Сам блок работает а доступа к информации пишет " Информация зашифрована у вас нет доступа к информации". В самой программе таблицы я доступ открыл, таблицу составил, блок её находит и считывает но она зашифрована и я не могу её посмотреть. Вам спасибо! Много нужной и полезной информации. Может подскажете где моя ошибка?
@ai-iiru4 ай бұрын
А Вы не проболи созадть новую таблицу и её привязать? А так я не могу по описанию сказать, в чём там проблема, извините. И во благо!
@Minataraaa6 ай бұрын
Яндекс маркет можно спарсить?
@ai-iiru6 ай бұрын
зависит от данных, как много и часто нужны - чтоб стоимость была адекватной результатам.
@Pavlina-xp4oh2 ай бұрын
Пыталась повторить, затык с регулярными выражениями, как в видео не получилось
@ai-iiru2 ай бұрын
@@Pavlina-xp4oh Вы можете выражения подбирать на regex101.com
@GRWmember6 ай бұрын
Все вот эти Ваши пропуски объяснений, типа у меня тут зарегистрировано, сами разберётесь приводят к тому что разобраться с Ниньдзей не получается и дальше всё застопорилось на втором модуле.
@ai-iiru6 ай бұрын
Благодарю, учту в следующих видео, не намеренно.
@ai-iiru6 ай бұрын
Для вас загрузил видео про соединение ScrapeNinja, гляньте
@ЛеонидГузеев-и7я6 ай бұрын
Можно ли так работать с озон? Пробую он постоянно возвращает ошибку. Может с ним есть какие-то отдельные хитрости настройки?)
@ai-iiru6 ай бұрын
У меня нет опыта парсинга с озон, не могу сказать, к сожалению
Сделаю тоже самое на Python в 5 раз быстрее. Добавлю любые ваши хотелки.
@ai-iiru2 ай бұрын
@@sdv75 Благодарю за отклик! Могу Вам написать в ТГ?
@sdv752 ай бұрын
@@ai-iiru zula_zulovich
@sdv752 ай бұрын
@@ai-iiruzula_zulovich
@sdv752 ай бұрын
@@ai-iiru Пишите @zula_zulovich
@sdv752 ай бұрын
Пишите zula_zulovich
@shap3lessplay6543 ай бұрын
Ильяс, добрый день! ПРедлагаю записать урок, где входящие новости с РСС канала проверяются через наличие новостей в конкретном ТГ канале. Если текст уникален на 75% - публиковать статью, в противном случае ничего не публиковать
@ai-iiru3 ай бұрын
@@shap3lessplay654 Благодарю за идею! между прочим, об этом просят и реальные заказчики, похоже, актуально.
@Леонид-с5з5 ай бұрын
1:10 2:53 3:06 7:10
@ArtemLarin6665 ай бұрын
Любой сайт так парсить не получится, не вводите людей в заблуждение. Большинство крупных сайтов имеют защиту от такого парсинга.
@SV-135 ай бұрын
И лягушкой не получится?
@Estes74Ай бұрын
Согласен, например паркинг букмекерских контор не даст.
@Funnyaishortsworld3 ай бұрын
Парсинг сайтов на данный момент это прямой путь к тому, что ваш сайт выкинут из поиска.
@ai-iiru3 ай бұрын
@@Funnyaishortsworld Немного не понял - как сайт, который парсим и другой сайт соединены? И как может сбор информации с сайта влиять на другой сайт? Можете пояснить? Может, я чего-то не знаю, что обязан знать в этих случаях?
@Funnyaishortsworld3 ай бұрын
@@ai-iiru дело было так. У меня был неплохой по посещаемости сайт про домашних животных. Статьи были уникальные, сайт хорошо ранжировался. И вот я решил подразбавить его спаренными с другого сайта статьями. Мало того, я не просто парсил, я ещё и прогонял текст через чат gpt. Через пару месяцев сайт полностью вылетел из поиска Яндекса за не уникальный контент. Я спешно удалил все спарсенные статьи, но увы, сайт так и не попал в поиск.