Ошибка доступ к кэшу запрещен

Проблема следующая. На предприятии AD, выход в инет через прокси, есть ДМЗ. Прокси и его порт прописываюся в настройках браузера, в разделе _подключения_. Для доступа в ДМЗ используется ISA 2006 (у меня стоит Isa client 2004). В инет ходим через squid.

После установки Windows 7 (на чистую машину) IExplorer настроил как обычно, прописал прокси и порт, но IExplorer отказывается выходить в инет (соответственно отваливается возможность активации и получения обновлений). При запуске запрашаваются логин и пароль, но в итоге получаю страничку со следующим сообщением:
==============================
ОШИБКА: Доступ к кэшу запрещён.<!—BODY{background-color:#ffffff;font-family:verdana,sans-serif}PRE{font-family:sans-serif}—>

ОШИБКА

Доступ к кэшу запрещён


Во время доставки URL: http://go.microsoft.com/fwlink/?

Произошла следующая ошибка:

  • Доступ к кэшу запрещён

Извините, Вы не можете запросить:

    http://go.microsoft.com/fwlink/?

из этого кэша до тех пор, пока не пройдёте аутентификацию.

Для этого Вам необходим Netscape версии 2.0 либо выше, или Microsoft Internet Explorer 3.0, или HTTP/1.1 совместимый броузер. Пожалуйста свяжитесь с администратором кэша , если у Вас возникли проблемы с аутентификацией, либо смените Ваш пароль по умолчанию.


Generated Thu, 18 Jun 2009 04:11:33 GMT by apk-proxy2.apk.gov (squid/2.6.STABLE18)

==============================

В FireFox такой проблемы нет . В настройках указал прокси, ввел логин и пароль и вот сижу, пишу это письмо.
На XP и Vista тоже все OK .

Ставил следующие сборки 7100(rus), 7201, сейчас стоит 7231(rus) — ситуация не меняется.

Вопрос, что и где подкрутить?

Инструкции по настройке интернета на ПК

Перед настройкой убедитесь, что устройство подключено к сети МАДИ либо по кабелю, либо через Wi-Fi. Для выхода в сеть интернет необходимо настроить прокси-сервер.

Для этого выполните следующие действия:

  1. Откройте Internet Explorer.
  2. Windows XP: Нажмите на кнопку Cервис (меню сверху), выберете «Свойства обозревателя».
    Windows 7 и выше: Нажмите на кнопку Cервис (шестеренка в правом верхнем углу), выберете «Свойства браузера».
  3. В открывшемся окне среди верхних вкладок выберите «Подключения».
  4. Windows XP: Нажмите на кнопке «Настройка LAN».
    Windows 7 и выше: Нажмите на кнопке «Настройка сети».
  5. В открывшемся окне поставьте галочку «Использовать прокси-сервер…», в поле «Адрес» введите 192.168.10.1, в поле «Порт» — 8080.
  6. Закройте окна нажатием на ОК. Закройте Internet Explorer.
  7. Запустите браузер и попробуйте воспользоваться интернетом. Если появится окно с предложением ввести имя пользователя и пароль, воспользуйтесь данными, полученными в Управлении информатизации.

Ошибки при работе:

  • ОШИБКА Доступ к кэшу запрещен (ERROR Cache access denied)
    Неправильно введены логин или пароль.
    Решение проблемы:
    Обновите страницу и попробуйте ввести данные еще раз.
  • Не удается получить доступ к сайту
    Неправильно настроен прокси-сервер, либо вы не подключены к сети МАДИ.
    Решение проблемы:
    1) Проверьте настройки прокси-сервера по шагам 1-7.
    2) Проверьте подключение по кабелю или Wi-Fi сети.

I am trying to make a basic web crawler. My internet is through proxy connection. So I used the solution given here. But still while running the code I am getting the error.
My code is:

#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup

import urllib.request as req
proxies = {
    "http": r"http://usr:pass@202.141.80.22:3128",
    "https": r"http://usr:pass@202.141.80.22:3128",
}

url = input("Ask user for something")

def santabanta(max_pages,url):
    page = 1
    while (page <= max_pages):      
        source_code = requests.get(url,proxies=proxies)
        plain_text  = source_code.text
        print (plain_text)  
        soup = BeautifulSoup(plain_text,"lxml")
        for link in soup.findAll('a'):
            href = link.get('href')
            print(href)
        page = page + 1
santabanta(1,url)

But while running on terminal in ubuntu 14.04 I am getting the following error:

The following error was encountered while trying to retrieve the URL: http://www.santabanta.com/wallpapers/gauhar-khan/?

Cache Access Denied.

Sorry, you are not currently allowed to request http://www.santabanta.com/wallpapers/gauhar-khan/? from this cache until you have authenticated yourself.

The url posted by me is:http://www.santabanta.com/wallpapers/gauhar-khan/

Please help me

asked Feb 13, 2016 at 13:39

Kevin Pandya's user avatar

  1. open the url.
  2. hit F12(chrome user)
  3. now go to «network» in the menu below.
  4. hit f5 to reload the page so that chrome records all the data received from server.
  5. open any of the «received file» and go down to «request header»
  6. pass all the header to request.get()

.[Here is an image to help you][1]
[1]: http://i.stack.imgur.com/zUEBE.png

Make the header as follows:

headers = { ‘Accept’:’ */ * ‘,
‘Accept-Encoding’:’gzip, deflate, sdch’,
‘Accept-Language’:’en-US,en;q=0.8′,
‘Cache-Control’:’max-age=0′,
‘Connection’:’keep-alive’,
‘Proxy-Authorization’:’Basic ZWRjZ3Vlc3Q6ZWRjZ3Vlc3Q=’,
‘If-Modified-Since’:’Fri, 13 Nov 2015 17:47:23 GMT’,
‘User-Agent’: ‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36’
}

answered Feb 20, 2016 at 5:42

Sumit Jha's user avatar

Sumit JhaSumit Jha

2,0552 gold badges20 silver badges35 bronze badges

There is another way to solve this problem.
What you can do is let your python script to use the proxy defined in your environment variable

Open terminal (CTRL + ALT + T)

export http_proxy="http://usr:pass@proxy:port"
export https_proxy="https://usr:pass@proxy:port"

and remove the proxy lines from your code
Here is the changed code:

#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup

import urllib.request as req
url = input("Ask user for something")

def santabanta(max_pages,url):
    page = 1
    while (page <= max_pages):      
        source_code = requests.get(url)
        plain_text  = source_code.text
        print (plain_text)  
        soup = BeautifulSoup(plain_text,"lxml")
        for link in soup.findAll('a'):
            href = link.get('href')
            print(href)
        page = page + 1
santabanta(1,url)

answered Aug 22, 2016 at 12:54

alphaguy's user avatar

alphaguyalphaguy

5403 silver badges17 bronze badges

I am trying to make a basic web crawler. My internet is through proxy connection. So I used the solution given here. But still while running the code I am getting the error.
My code is:

#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup

import urllib.request as req
proxies = {
    "http": r"http://usr:pass@202.141.80.22:3128",
    "https": r"http://usr:pass@202.141.80.22:3128",
}

url = input("Ask user for something")

def santabanta(max_pages,url):
    page = 1
    while (page <= max_pages):      
        source_code = requests.get(url,proxies=proxies)
        plain_text  = source_code.text
        print (plain_text)  
        soup = BeautifulSoup(plain_text,"lxml")
        for link in soup.findAll('a'):
            href = link.get('href')
            print(href)
        page = page + 1
santabanta(1,url)

But while running on terminal in ubuntu 14.04 I am getting the following error:

The following error was encountered while trying to retrieve the URL: http://www.santabanta.com/wallpapers/gauhar-khan/?

Cache Access Denied.

Sorry, you are not currently allowed to request http://www.santabanta.com/wallpapers/gauhar-khan/? from this cache until you have authenticated yourself.

The url posted by me is:http://www.santabanta.com/wallpapers/gauhar-khan/

Please help me

asked Feb 13, 2016 at 13:39

Kevin Pandya's user avatar

  1. open the url.
  2. hit F12(chrome user)
  3. now go to «network» in the menu below.
  4. hit f5 to reload the page so that chrome records all the data received from server.
  5. open any of the «received file» and go down to «request header»
  6. pass all the header to request.get()

.[Here is an image to help you][1]
[1]: http://i.stack.imgur.com/zUEBE.png

Make the header as follows:

headers = { ‘Accept’:’ */ * ‘,
‘Accept-Encoding’:’gzip, deflate, sdch’,
‘Accept-Language’:’en-US,en;q=0.8′,
‘Cache-Control’:’max-age=0′,
‘Connection’:’keep-alive’,
‘Proxy-Authorization’:’Basic ZWRjZ3Vlc3Q6ZWRjZ3Vlc3Q=’,
‘If-Modified-Since’:’Fri, 13 Nov 2015 17:47:23 GMT’,
‘User-Agent’: ‘Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/48.0.2564.116 Safari/537.36’
}

answered Feb 20, 2016 at 5:42

Sumit Jha's user avatar

Sumit JhaSumit Jha

2,0552 gold badges20 silver badges35 bronze badges

There is another way to solve this problem.
What you can do is let your python script to use the proxy defined in your environment variable

Open terminal (CTRL + ALT + T)

export http_proxy="http://usr:pass@proxy:port"
export https_proxy="https://usr:pass@proxy:port"

and remove the proxy lines from your code
Here is the changed code:

#!/usr/bin/python3.4
import requests
from bs4 import BeautifulSoup

import urllib.request as req
url = input("Ask user for something")

def santabanta(max_pages,url):
    page = 1
    while (page <= max_pages):      
        source_code = requests.get(url)
        plain_text  = source_code.text
        print (plain_text)  
        soup = BeautifulSoup(plain_text,"lxml")
        for link in soup.findAll('a'):
            href = link.get('href')
            print(href)
        page = page + 1
santabanta(1,url)

answered Aug 22, 2016 at 12:54

alphaguy's user avatar

alphaguyalphaguy

5403 silver badges17 bronze badges

  

rooffy

02.03.17 — 17:50

На сайте npchk.nalog.ru есть возможность проверить контрагентов как гет запросом, так и с помощью вебсервиса.

Пытаюсь подцепить данный вебсервис и выдает ошибку:

При вызове веб-сервиса произошла ошибка. Ошибка HTTP:  HTTP Status 407.

.

ERROR Cache Доступ запрещён.  При получении URL http://npchk.nalog.ru/FNSNDSCAWS_2 произошла следующая ошибка   Доступ к кэшу запрещён.   Извините, Вы не можете запросить http://npchk.nalog.ru/FNSNDSCAWS_2 из этого кэша до тех пор, пока не пройдёте аутентификацию.  Please contact the cache administrator if you have difficulties authenticating yourself.   Создано Thu, 02 Mar 2017 14:43:37 GMT на прокси (squid/3.3.8)  

код:

    прокси1 = новый ИнтернетПрокси;

    прокси1.Установить(«http», «прокси», порт);

    прокси1.Пользователь=»проксилогин»;

    прокси1.Пароль =»проксипароль»;

    Определение = Новый WSОпределения(«http://npchk.nalog.ru/FNSNDSCAWS_2?wsdl»,»проксилогин»,»проксипароль»,прокси1);

    Прокси = Новый WSПрокси(Определение, «http://ws.unisoft»;, «FNSNDSCAWS2», «FNSNDSCAWS2_Port»);

    Запрос = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2»));

    Контрагент = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2_NP»));

    

    ДанныеК = новый запрос;

    ДанныеК.Текст =»ВЫБРАТЬ ПЕРВЫЕ 30

                  |    Контрагенты.ИНН,

                  |    Контрагенты.КПП

                  |ИЗ

                  |    Справочник.Контрагенты КАК Контрагенты

                  |ГДЕ

                  |    Контрагенты.ИНН <> &ИНН» ;

    ДанныеК.УстановитьПараметр(«ИНН»,»»);                  

    ДанныеПоКонтрагентам = ДанныеК.Выполнить().Выгрузить();

    Для каждого ДанныеПоКонтрагенту Из ДанныеПоКонтрагентам Цикл

        Контрагент.INN = ДанныеПоКонтрагенту.ИНН;

        Контрагент.KPP = ДанныеПоКонтрагенту.КПП;

        Контрагент.DT = Формат(ТекущаяДата(), «ДФ=dd.MM.yyyy»);

        

        Запрос.NP.Добавить(Контрагент);

    КонецЦикла;  

    
    РезультатЗапроса = Прокси.NdsRequest2(Запрос);

    

    Для каждого ОтветДляКонтрагента из РезультатЗапроса.NP Цикл

        Сообщить(ОтветДляКонтрагента.State);

    КонецЦикла;

ошибка возникает при попытке получить РезультатЗапроса.

ошибка 407 — проблемы с прокси, но где его еще указать не понимаю.

при чем это на 8.3, на 8.2 в описании WSОпределения вообще нет возможности передать ИнтернетПрокси

может кто знает в чем ошибка?

  

rooffy

4 — 03.03.17 — 12:00

(1) Вроде нет, ИнтернетПрокси я передаю в WSОпределения, а с WSПрокси работаю дальше

(2) Почитал, у меня все настроено уже для второй версии

Вообще раньше делал через Пост-запрос напрямую на сайт, но пару недель как появилась ошибка «Произошла исключительная ситуация (WinHttp.WinHttpRequest): Не удается установить соединение с сервером» при отработке WinHttp.Send(ТекСтрока) хотя сайт работает и настройки Прокси актуальные

Permalink

Cannot retrieve contributors at this time


This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters

<!DOCTYPE HTML PUBLIC «-//W3C//DTD HTML 4.01 Transitional//EN» «http://www.w3.org/TR/html4/loose.dtd»>
<HTML><HEAD><META HTTP-EQUIV=»Content-Type» CONTENT=»text/html; charset=windows-1251″>
<TITLE>ОШИБКА: Доступ к кэшу запрещён.</TITLE>
<STYLE type=»text/css»><!—BODY{background-color:#ffffff;font-family:verdana,sans-serif}PRE{font-family:sans-serif}—></STYLE>
</HEAD>
<BODY>
<H1>ОШИБКА</H1>
<H2>Доступ к кэшу запрещён</H2>
<HR noshade size=»1px»>
<P>
Во время доставки URL:
<A HREF=»%U»>%U</A>
<P>
Произошла следующая ошибка:
<UL>
<LI>
<STRONG>
Доступ к кэшу запрещён
</STRONG>
</UL>
</P>
<P>Извините, Вы не можете запросить:
<PRE> %U</PRE>
из этого кэша до тех пор, пока не пройдёте аутентификацию.
</P>
<P>
Для этого Вам необходим Netscape версии 2.0 либо выше, или Microsoft Internet
Explorer 3.0, или HTTP/1.1 совместимый броузер. Пожалуйста свяжитесь
с <A HREF=»mailto:%w»>администратором кэша</a>, если у Вас возникли проблемы
с аутентификацией, либо <A HREF=»http://%h/cgi-bin/chpasswd.cgi»>смените</a>
Ваш пароль по умолчанию.
</P>

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

SqUid3 + ntlm (как найти ошибку ?)

Доброе время суток.

Воспользовался серией статей для установки и настройки SQUID + AD.

Но увы где то допустил ошибку.
Прошу помощи в нахождении оной.
Суть такая, Basic работает и пускает пользователей согласно списка групп.
Но если я включаю NTLM, IE упорно спрашивает пароль, а Chrom не спрашивает кто я такой.

С Ubuntu я на вы.

————————————
access.log пишет
TCP_DENIED/407 3980 CONNECT clients4.google.com:443 — HIER_NONE/- text/html
———————————-
testparm
Load smb config files from /etc/samba/smb.conf
rlimit_max: increasing rlimit_max (1024) to minimum Windows limit (16384)
Loaded services file OK.
Server role: ROLE_DOMAIN_MEMBER
Press enter to see a dump of your service definitions

[global]
workgroup = ABS
realm = ABS.LOCOL
interfaces = 172.16.0.0/24
bind interfaces only = Yes
security = ADS
winbind enum users = Yes
winbind enum groups = Yes
winbind use default domain = Yes
winbind nss info = rfc2307
idmap config ABS:range = 10000-80000
idmap config ABS:backend = rid
idmap config *:range = 10000-80000
idmap config * : backend = tdb
———————————-
sudo net ads keytab list

Warning: «kerberos method» must be set to a keytab method to use keytab functions.
Vno Type Principal
3 des-cbc-crc HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 des-cbc-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 arcfour-hmac-md5 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes256-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL
3 aes128-cts-hmac-sha1-96 HTTP/al-sgw002.ABS.locol@ABS.LOCOL

———————
al-sgw002:~$ sudo getent group winbindd_priv
winbindd_priv:x:129:proxy
——————
al-sgw002:~$ sudo ps -aux | grep /usr/sbin/squid3
proxy 3672 0.0 1.2 132124 39432 ? Ss Қаң28 0:16 /usr/sbin/squid3 -N -YC -f /etc/squid3/squid.conf

Прошу наставлений на путь истинный.

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Dekabryi » 29 янв 2016 08:48

# SQUID 3.3.8 Configuration
# ——————————————————————————
#
# OPTIONS FOR AUTHENTICATION
# ——————————————————————————
#
# Negotiate Kerberos and NTLM authentication
#—-
auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth —ntlm /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp —kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s «HTTP/al-sgw002.abs.locol@abs.locol»
auth_param negotiate children 200 startup=50 idle=10
auth_param negotiate keep_alive off

# Only NTLM authentication
#—
auth_param ntlm program /usr/bin/ntlm_auth —diagnostics —helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off

# Basic authentication via ldap for clients not authenticated via kerberos/ntlm
auth_param basic program /usr/lib/squid3/basic_ldap_auth -v 3 -P -R -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «sAMAccountName=%s» -h 172.16.0.32
auth_param basic children 20
auth_param basic realm «DC1 SQUID Proxy Server Basic authentication!»
auth_param basic credentialsttl 2 hours

# ACCESS CONTROLS
# ——————————————————————————
#
# LDAP authorization
external_acl_type memberof ttl=3600 ipv4 %LOGIN /usr/lib/squid3/ext_ldap_group_acl -v 3 -P -R -K -b «dc=abs,dc=locol» -D «squid@abs.locol» -W «/etc/squid3/conf_param_ldappass.txt» -f «(&(objectclass=person)(sAMAccountName=%v)(memberOf:1.2.840.113556.1.4.1941:=cn=%g,OU=internet,OU=Groups,DC=abs,DC=locol))» -h 172.16.0.32
#

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Dekabryi » 29 янв 2016 08:53

У пользователя вот такая ошибка
*************
ERROR
Cache Доступ запрещён.

———————————————————————————

При получении URL http://ya.ru/ произошла следующая ошибка

Доступ к кэшу запрещён.

Извините, Вы не можете запросить http://ya.ru/ из этого кэша до тех пор, пока не пройдёте аутентификацию.
************************************************

Аватара пользователя

Алексей Максимов

Администратор сайта
Сообщения: 571
Зарегистрирован: 14 сен 2012 06:50
Откуда: г.Сыктывкар
Контактная информация:

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Алексей Максимов » 29 янв 2016 09:06

Вполне возможно что проблема вообще с Kerberos а не с NTLM.
Попробуйте отключить вообще Kerberos используя только NTLM аутентификацию.
Для этого закомментируйте блок:

Код: Выделить всё

# -----------------------------------------------------------------------------
#
# Negotiate Kerberos and NTLM authentication
#----
##auth_param negotiate program /usr/lib/squid3/negotiate_wrapper_auth --ntlm /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp --kerberos /usr/lib/squid3/negotiate_kerberos_auth -r -s "HTTP/al-sgw002.abs.locol@abs.locol"
##auth_param negotiate children 200 startup=50 idle=10
##auth_param negotiate keep_alive off

И оставьте только NTLM

Код: Выделить всё

# Only NTLM authentication
#---
auth_param ntlm program /usr/bin/ntlm_auth --diagnostics --helper-protocol=squid-2.5-ntlmssp
auth_param ntlm children 100 startup=20 idle=5
auth_param ntlm keep_alive off

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Dekabryi » 29 янв 2016 10:01

лог большой получается
Вот что есть
******
GET http://ya.ru/ HTTP/1.1
Accept: image/jpeg, image/gif, image/pjpeg, application/x-ms-application, application/xaml+xml, application/x-ms-xbap, */*
Accept-Language: en-US
User-Agent: Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729)
Accept-Encoding: gzip, deflate
Proxy-Connection: Keep-Alive
Proxy-Authorization: NTLM TlRMTVNTUAADAAAAGAAYAIYAAAAYABgAngAAABAAEABYAAAAGAAYAGgAAAAGAAYAgAAAAAAAAAC2AAAABYKIogYBsB0AAAAP4SSU5+MEcqbYze1b5MkfIUsAQQBaAE4ASQBJAFMAQQBhAGYAaQBsAG8AbgB0AHMAZQB2AF8AbQBEAEMAMQDiEh65ByIdFAAAAAAAAAAAAAAAAAAAAADLbM4D7elgvineGvpNRdCbxJTwAbDKQFM=
Host: ya.ru

———-
2016/01/29 15:36:43.160| comm.cc(773) commSetConnTimeout: local=172.16.0.1:3128 remote=172.16.0.32:63072 FD 10 flags=1 timeout 86400
2016/01/29 15:36:43.160| url.cc(386) urlParse: urlParse: Split URL ‘http://ya.ru/’ into proto=’http’, host=’ya.ru’, port=’80’, path=’/’
2016/01/29 15:36:43.160| Address.cc(409) LookupHostIP: Given Non-IP ‘ya.ru’: Name or service not known
2016/01/29 15:36:43.160| client_side.cc(840) clientSetKeepaliveFlag: clientSetKeepaliveFlag: http_ver = 1.1
2016/01/29 15:36:43.160| client_side.cc(842) clientSetKeepaliveFlag: clientSetKeepaliveFlag: method = GET
2016/01/29 15:36:43.160| client_side_request.cc(162) ClientRequestContext: 0x7f16caf70018 ClientRequestContext constructed
2016/01/29 15:36:43.160| client_side_request.cc(1554) doCallouts: Doing calloutContext->hostHeaderVerify()
2016/01/29 15:36:43.160| client_side_request.cc(674) hostHeaderVerify: validate host=ya.ru, port=0, portStr=NULL
2016/01/29 15:36:43.160| client_side_request.cc(688) hostHeaderVerify: validate skipped.
2016/01/29 15:36:43.160| client_side_request.cc(1561) doCallouts: Doing calloutContext->clientAccessCheck()
2016/01/29 15:36:43.160| Checklist.cc(153) preCheck: 0x7f16caf524c8 checking slow rules
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking !Safe_ports
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘Safe_ports’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘Safe_ports’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny CONNECT !SSL_ports’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking CONNECT
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘CONNECT’
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘CONNECT’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localhost manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localhost
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localhost’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ NOT found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localhost’ is 0
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.160| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.160| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow localnet manager’
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking localnet
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘localnet’
2016/01/29 15:36:43.160| Ip.cc(560) match: aclIpMatchIp: ‘172.16.0.32:63072’ found
2016/01/29 15:36:43.160| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘localnet’ is 1
2016/01/29 15:36:43.160| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=1 async=0 finished=0
2016/01/29 15:36:43.160| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.160| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.160| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.160| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny manager’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking manager
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘manager’
2016/01/29 15:36:43.161| RegexData.cc(71) match: aclRegexData::match: checking ‘http://ya.ru/’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^cache_object://)’
2016/01/29 15:36:43.161| RegexData.cc(82) match: aclRegexData::match: looking for ‘(^https?://[^/]+/squid-internal-mgr/)’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘manager’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow GlobalWUSites LocalWUServers’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking GlobalWUSites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘GlobalWUSites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘GlobalWUSites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access allow prioritysites localnet’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking prioritysites
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘prioritysites’
2016/01/29 15:36:43.161| DomainData.cc(131) match: aclMatchDomainList: checking ‘ya.ru’
2016/01/29 15:36:43.161| DomainData.cc(135) match: aclMatchDomainList: ‘ya.ru’ NOT found
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘prioritysites’ is 0
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=0 finished=0
2016/01/29 15:36:43.161| Checklist.cc(299) matchNode: 0x7f16caf524c8 simple mismatch
2016/01/29 15:36:43.161| Checklist.cc(160) checkAccessList: 0x7f16caf524c8 checking ‘http_access deny !auth’
2016/01/29 15:36:43.161| Acl.cc(336) matches: ACLList::matches: checking !auth
2016/01/29 15:36:43.161| Acl.cc(319) checklistMatches: ACL::checklistMatches: checking ‘auth’
2016/01/29 15:36:43.161| Acl.cc(321) checklistMatches: ACL::ChecklistMatches: result for ‘auth’ is -1
2016/01/29 15:36:43.161| Checklist.cc(275) matchNode: 0x7f16caf524c8 matched=0 async=1 finished=0
2016/01/29 15:36:43.161| Checklist.cc(312) matchNode: 0x7f16caf524c8 going async
2016/01/29 15:36:43.161| Checklist.cc(131) asyncInProgress: ACLChecklist::asyncInProgress: 0x7f16caf524c8 async set to 1
2016/01/29 15:36:43.161| AclProxyAuth.cc(144) checkForAsync: checking password via authenticator
2016/01/29 15:36:43.161| Checklist.cc(256) matchNodes: 0x7f16caf524c8 awaiting async operation
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| comm.cc(145) commHandleRead: comm_read_try: FD 9, size 4095, retval 49, errno 0
2016/01/29 15:36:43.161| IoCallback.cc(108) finish: called for local=[::] remote=[::] FD 9 flags=1 (0, 0)
2016/01/29 15:36:43.161| helper.cc(1013) helperStatefulHandleRead: helperStatefulHandleRead: end of reply found
2016/01/29 15:36:43.161| helper.cc(471) helperStatefulReleaseServer: srv-0 flags.reserved = 1
ERROR: NTLM Authentication validating user. Error returned ‘BH NT_STATUS_UNSUCCESSFUL NT_STATUS_UNSUCCESSFUL’
*******

Dekabryi

Любопытный
Сообщения: 15
Зарегистрирован: 29 янв 2016 07:56

Re: SqUid3 + ntlm (как найти ошибку ?)

Сообщение

Dekabryi » 29 янв 2016 10:10

wbinfo -t
стал показывать
al-sgw002:~$ wbinfo -t
checking the trust secret for domain ABS via RPC calls failed
failed to call wbcCheckTrustCredentials: WBC_ERR_WINBIND_NOT_AVAILABLE

Инструкции по настройке интернета на ПК

Перед настройкой убедитесь, что устройство подключено к сети МАДИ либо по кабелю, либо через Wi-Fi. Для выхода в сеть интернет необходимо настроить прокси-сервер.

Для этого выполните следующие действия:

  1. Откройте Internet Explorer.
  2. Windows XP: Нажмите на кнопку Cервис (меню сверху), выберете «Свойства обозревателя».
    Windows 7 и выше: Нажмите на кнопку Cервис (шестеренка в правом верхнем углу), выберете «Свойства браузера».
  3. В открывшемся окне среди верхних вкладок выберите «Подключения».
  4. Windows XP: Нажмите на кнопке «Настройка LAN».
    Windows 7 и выше: Нажмите на кнопке «Настройка сети».
  5. В открывшемся окне поставьте галочку «Использовать прокси-сервер…», в поле «Адрес» введите 192.168.10.1, в поле «Порт» — 8080.
  6. Закройте окна нажатием на ОК. Закройте Internet Explorer.
  7. Запустите браузер и попробуйте воспользоваться интернетом. Если появится окно с предложением ввести имя пользователя и пароль, воспользуйтесь данными, полученными в Управлении информатизации.

Ошибки при работе:

  • ОШИБКА Доступ к кэшу запрещен (ERROR Cache access denied)
    Неправильно введены логин или пароль.
    Решение проблемы:
    Обновите страницу и попробуйте ввести данные еще раз.
  • Не удается получить доступ к сайту
    Неправильно настроен прокси-сервер, либо вы не подключены к сети МАДИ.
    Решение проблемы:
    1) Проверьте настройки прокси-сервера по шагам 1-7.
    2) Проверьте подключение по кабелю или Wi-Fi сети.

Hi,

I’ve created an OpenCanary (V0.6.2) install on a Raspberry Pi 3b+ with an Unbuntu 20.4 server version.
Followed the OpenCanary installation recipe listed here:

Install OpenCanary on Raspberry Pi Ubuntu 20.10
by u/derfmcdoogal in homelab

All seems to work fine so far, the ftp login trap works like a charm with GMAIL notification

Before activating the http trap I get the following browser texts when trying a login at 80 port login at the Raspberry IP;

============== Start Text
ERROR
Cache Access Denied.
The following error was encountered while trying to retrieve the URL: b’/’
Cache Access Denied.
Sorry, you are not currently allowed to request b’/’ from this cache until you have authenticated yourself.
Please contact the cache administrator if you have difficulties authenticating yourself.
Generated Sun, 12 Sep 2021 14:04:33 GMT by localhost (squid/3.3.8)
============== Start End

Then I turned both the 80 & 8080 port traps on for http & httpproxy in the .conf file.

For port 80 the NAS login page shows OK now.
However for the 8080 port. browser still shows the above cache error.

The config file parts are below.

Either way, it seems that leaving HTTP 80 Port trap turned Off in the conf file sort of shows it may be a Canary / Fake.

For the 8080 browser notification, i can’t figure out whats wrong there.

Any idea’s? Thanks

The configuration;

cat .opencanary.conf
{
«device.node_id»: «NAS-FileServer»,
«ip.ignorelist»: [ ],
«git.enabled»: false,
«git.port» : 9418,
«ftp.enabled»: true,
«ftp.port»: 21,
«ftp.banner»: «FTP server ready»,
«http.banner»: «Apache/2.2.22 (Ubuntu)»,
«http.enabled»: true,
«http.port»: 80,
«http.skin»: «nasLogin»,
«http.skin.list»: [
{
«desc»: «Plain HTML Login»,
«name»: «basicLogin»
},
{
«desc»: «Synology NAS Login»,
«name»: «nasLogin»
}
],
«httpproxy.enabled» : true,
«httpproxy.port»: 8080,
«httpproxy.skin»: «squid»,
«httproxy.skin.list»: [
{
«desc»: «Squid»,
«name»: «squid»
},
{
«desc»: «Microsoft ISA Server Web Proxy»,
«name»: «ms-isa»
}
],

   rooffy

02.03.17 — 17:50

На сайте npchk.nalog.ru есть возможность проверить контрагентов как гет запросом, так и с помощью вебсервиса.

Пытаюсь подцепить данный вебсервис и выдает ошибку:

При вызове веб-сервиса произошла ошибка. Ошибка HTTP:  HTTP Status 407.

.

ERROR Cache Доступ запрещён.  При получении URL http://npchk.nalog.ru/FNSNDSCAWS_2 произошла следующая ошибка   Доступ к кэшу запрещён.   Извините, Вы не можете запросить http://npchk.nalog.ru/FNSNDSCAWS_2 из этого кэша до тех пор, пока не пройдёте аутентификацию.  Please contact the cache administrator if you have difficulties authenticating yourself.   Создано Thu, 02 Mar 2017 14:43:37 GMT на прокси (squid/3.3.8)  

код:

    прокси1 = новый ИнтернетПрокси;

    прокси1.Установить(«http», «прокси», порт);

    прокси1.Пользователь=»проксилогин»;

    прокси1.Пароль =»проксипароль»;

    Определение = Новый WSОпределения(«http://npchk.nalog.ru/FNSNDSCAWS_2?wsdl»,»проксилогин»,»проксипароль»,прокси1);

    Прокси = Новый WSПрокси(Определение, «http://ws.unisoft»;, «FNSNDSCAWS2», «FNSNDSCAWS2_Port»);

    Запрос = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2»));

    Контрагент = Прокси.ФабрикаXDTO.Создать(Прокси.ФабрикаXDTO.Тип(«http://ws.unisoft/FNSNDSCAWS2/Request»;, «NdsRequest2_NP»));

    
    ДанныеК = новый запрос;

    ДанныеК.Текст =»ВЫБРАТЬ ПЕРВЫЕ 30

                  |    Контрагенты.ИНН,

                  |    Контрагенты.КПП

                  |ИЗ

                  |    Справочник.Контрагенты КАК Контрагенты

                  |ГДЕ

                  |    Контрагенты.ИНН <> &ИНН» ;

    ДанныеК.УстановитьПараметр(«ИНН»,»»);                  

    ДанныеПоКонтрагентам = ДанныеК.Выполнить().Выгрузить();

    Для каждого ДанныеПоКонтрагенту Из ДанныеПоКонтрагентам Цикл

        Контрагент.INN = ДанныеПоКонтрагенту.ИНН;

        Контрагент.KPP = ДанныеПоКонтрагенту.КПП;

        Контрагент.DT = Формат(ТекущаяДата(), «ДФ=dd.MM.yyyy»);

        
        Запрос.NP.Добавить(Контрагент);

    КонецЦикла;  

    
    РезультатЗапроса = Прокси.NdsRequest2(Запрос);

    
    Для каждого ОтветДляКонтрагента из РезультатЗапроса.NP Цикл

        Сообщить(ОтветДляКонтрагента.State);

    КонецЦикла;

ошибка возникает при попытке получить РезультатЗапроса.

ошибка 407 — проблемы с прокси, но где его еще указать не понимаю.

при чем это на 8.3, на 8.2 в описании WSОпределения вообще нет возможности передать ИнтернетПрокси

может кто знает в чем ошибка?

   rooffy

4 — 03.03.17 — 12:00

(1) Вроде нет, ИнтернетПрокси я передаю в WSОпределения, а с WSПрокси работаю дальше

(2) Почитал, у меня все настроено уже для второй версии

Вообще раньше делал через Пост-запрос напрямую на сайт, но пару недель как появилась ошибка «Произошла исключительная ситуация (WinHttp.WinHttpRequest): Не удается установить соединение с сервером» при отработке WinHttp.Send(ТекСтрока) хотя сайт работает и настройки Прокси актуальные

#macos #firefox #authentication #proxy

#macos #firefox #аутентификация #прокси

Вопрос:

Firefox работал отлично, прежде чем мы обновили его до версии 30.0. Похоже, что новой версии не нравится наша настройка прокси, которая требует от пользователей авторизации в своих рекламных аккаунтах.

В прошлой версии Firefox появлялось всплывающее окно, позволяющее ввести имя пользователя и пароль, что работает идеально. Однако он больше не появляется и выдает мне это сообщение об ошибке.

Была обнаружена следующая ошибка: Доступ к кэшу запрещен. Извините, в настоящее время вам не разрешено запрашивать:

http://www.google.com.au/url ? из этого кэша до тех пор, пока вы не пройдете проверку подлинности.

Я пытаюсь вручную настроить имя пользователя в цепочке ключей и разрешить firefox доступ к нему, но Firefox, похоже, вообще не обращается к этой цепочке ключей.

У кого-нибудь есть проблема с прокси, который нуждается в аутентификации в Firefox30.0? Кто-нибудь знает возможные решения?

Большое спасибо!

Shuopan

обновление для устранения неполадок—————————————— Довольно интересно, что Firefox будет работать в течение 1 минуты после того, как я использую Safari с этимАутентификация прокси. Однако, если я не касаюсь Safari в течение 1 или 2 минут, Firefox перестанет работать и появится аналогичное сообщение об ошибке.

пробовал network.http.use-cache = false, но не работает

Спасибо

Комментарии:

1. Мы считаем, что решение Филиппа полезно. «здравствуйте, это может быть связано с отключением некоторых небезопасных протоколов аутентификации в firefox 30: mozilla.org/en-US/firefox/30.0/releasenotes/#whatsnew вы можете попробовать ввести about:config в адресную строку firefox (подтвердите информационное сообщение, если оно появится) и выполнить поиск предпочтения с именем network.negotiate-auth. разрешить-небезопасный-ntlm-v1. дважды щелкните его и измените его значение на true «. mozilla.org/en-US/firefox/30.0/releasenotes/#whatsnew

Ответ №1:

  • Ошибка доступ запрещен платформа офд
  • Ошибка доступ запрещен битрикс веб форма
  • Ошибка достигнут предел оценочного периода пост обработка не удалась sheetcam
  • Ошибка достигнут конец файла торрент
  • Ошибка доставки почты возврат сообщения отправителю