Ошибка сетевого интерфейса ucs

  • Contents

  • Table of Contents

  • Troubleshooting

  • Bookmarks

Quick Links

Troubleshooting Guide for Cisco UCS E-Series

Servers and the Cisco UCS E-Series Network

Compute Engine

First Published: 2017-01-05

Overview

This document provides troubleshooting information for Cisco UCS E-Series Servers (E-Series Servers) and

the Cisco UCS E-Series Network Compute Engine (NCE).

Documentation is sometimes updated after original publication; therefore, review the documentation on

Cisco.com for any updates.

Link to Product Documentation

For links to the all Cisco UCS E-Series Servers and the Cisco UCS E-Series Network Compute Engine

documents, see:

Types of E-Series Servers and NCEs

Documentation Guide for Cisco UCS E-Series Servers

Troubleshooting Guide for Cisco UCS E-Series Servers and the Cisco UCS E-Series Network Compute Engine

1

Summary of Contents for Cisco UCS E series

  • Contents

  • Table of Contents

  • Troubleshooting

  • Bookmarks

Quick Links

Troubleshooting Guide for Cisco UCS E-Series

Servers and the Cisco UCS E-Series Network

Compute Engine

First Published: 2017-01-05

Overview

This document provides troubleshooting information for Cisco UCS E-Series Servers (E-Series Servers) and

the Cisco UCS E-Series Network Compute Engine (NCE).

Documentation is sometimes updated after original publication; therefore, review the documentation on

Cisco.com for any updates.

Link to Product Documentation

For links to the all Cisco UCS E-Series Servers and the Cisco UCS E-Series Network Compute Engine

documents, see:

Types of E-Series Servers and NCEs

Documentation Guide for Cisco UCS E-Series Servers

Troubleshooting Guide for Cisco UCS E-Series Servers and the Cisco UCS E-Series Network Compute Engine

1

Summary of Contents for Cisco UCS E series

Автор
Сообщение

Зарегистрирован: 05 фев 2013, 17:02
Сообщения: 672

Сообщение Вопрос по Cisco UCS-E140M1

Добрый день.
Установил такой модуль в 2911, появилось 2 новых интерфейса

interface ucse1/0
no ip address
imc ip address 192.168.168.9 255.255.255.0 default-gateway 192.168.168.1
imc access-port dedicated
!
interface ucse1/1
description $Internal switch interface connected to Service Module$
switchport trunk allowed vlan 1-169,1002-1005
switchport mode trunk
no ip address

Читал мануал по настройке — все в основном говорится про интерфейс interface ucse1/0 и как через него сделать доступ к CIMC. Про interface ucse1/1 сказано лишь, что его надо перевести в switchport mode trunk и разрешить все vlan. То есть данные между роутером и этим модулем буду ходить только через interface ucse1/1??? И еще вопрос — при конфигурировании interface ucse1/0 в строке imc access-port можно выбрать dedicated и shared-lom. Shared-lom содержит пункты

Cisco_2911(config-if)#imc access-port shared-lom ?
GE1 GE1
GE2 GE2
console Console
failover Failover
GE2 — это порт на задней стороне модуля? все чудесно назначается, идут пинги и видится Менеджмент Консоль, а что за порт GE1? В мануале написано как сконфигурировать что бы к CIMC можно было заходить изнутри роутера и указан порт GE1. Делаю как написано — нет пингов и на CIMC зайти соответственно не могу. Получается только GE2 и dedicated, то есть через внешние интерфейсы, IP на GE1, GE2 и dedicated назначаю из VLAN который живой и на котором висит NAS, который видится из других VLAN.
Куда смотреть?

11 июн 2014, 07:11

Профиль

R_KING

Зарегистрирован: 05 фев 2013, 17:02
Сообщения: 672

Сообщение Re: Вопрос по Cisco UCS-E140M1

Еще вопрос — firmware и BIOS обновлять последовательно с повышением версии или можно на initial сразу накатить последнее обновление?

11 июн 2014, 10:48

Профиль

R_KING

Зарегистрирован: 05 фев 2013, 17:02
Сообщения: 672

Сообщение Re: Вопрос по Cisco UCS-E140M1

И может кто помочь с файлами

http://software.cisco.com/download/rele … ype=latest

ucse-huu-2.1.1.iso

http://software.cisco.com/download/rele … ype=latest

update_pkg-ucse.combined.REL.2.2.2.bin

Вчера правда еще был ISO от 15 мая 2014, но потом вдруг пропал. Может кто качал, весит около 290МБ.

Может кто дать рекомендации — стоит обновлять BIOS и CiMC? Просто стоит все initial.

11 июн 2014, 11:07

Профиль

R_KING

Зарегистрирован: 05 фев 2013, 17:02
Сообщения: 672

Сообщение Re: Вопрос по Cisco UCS-E140M1

Неужели никто с таким модулем не сталкивался?

15 июн 2014, 23:06

Профиль

real1st

Зарегистрирован: 04 окт 2011, 19:33
Сообщения: 1316

Сообщение Re: Вопрос по Cisco UCS-E140M1

R_KING
Привет!
Вообще, UCS-E вещь довольно редкая и врятли найдется много народу, кто работал с ними.
Вот здесь

http://www.cisco.com/c/en/us/td/docs/un … r_010.html

довольно подробно описано. В том числе, что за интерфейсы такие GE2, GE3 …

По поводу обновлений: просмотрите соответствующие гайды, или вернее даже compatibility. Но не вижу ничего, что могло бы помешать накатить нужную версию сразу.

18 июн 2014, 16:03

Профиль

R_KING

Зарегистрирован: 05 фев 2013, 17:02
Сообщения: 672

Сообщение Re: Вопрос по Cisco UCS-E140M1

f@ntasist0 писал(а):

R_KING
Привет!
Вообще, UCS-E вещь довольно редкая и врятли найдется много народу, кто работал с ними.
Вот здесь

http://www.cisco.com/c/en/us/td/docs/un … r_010.html

довольно подробно описано. В том числе, что за интерфейсы такие GE2, GE3 …

По поводу обновлений: просмотрите соответствующие гайды, или вернее даже compatibility. Но не вижу ничего, что могло бы помешать накатить нужную версию сразу.

Спасибо за ответ.
Модуль обновил — спасибо форумчанину, что скачал ISO, и с интерфейсами вроде тоже разобрался, после того как поставил server 2008 R2, что касаемо ссылки на cisco.com — я выкачал тонны описаний для UCS, но там очень подробно расписано для Cisco ISR 4451-X, про UCS как то вскользь.

Теперь вот мозг сверлит идея завернуть на этот модуль траффик после nat , поинспектировать его на модуле и через другой интерфейс выпустить обратно в роутер.

19 июн 2014, 10:01

Профиль

real1st

Зарегистрирован: 04 окт 2011, 19:33
Сообщения: 1316

Сообщение Re: Вопрос по Cisco UCS-E140M1

R_KING

Цитата:

Теперь вот мозг сверлит идея завернуть на этот модуль траффик после nat , поинспектировать его на модуле и через другой интерфейс выпустить обратно в роутер.

А это точно реально? Ибо inside source NAT у циски делается совсем в конце.

А для работы с CiMC качни гайды для С-серии серверов, думаю должно быть аналогично.

19 июн 2014, 10:30

Профиль

R_KING

Зарегистрирован: 05 фев 2013, 17:02
Сообщения: 672

Сообщение Re: Вопрос по Cisco UCS-E140M1

f@ntasist0 писал(а):

R_KING

Цитата:

Теперь вот мозг сверлит идея завернуть на этот модуль траффик после nat , поинспектировать его на модуле и через другой интерфейс выпустить обратно в роутер.

А это точно реально? Ибо inside source NAT у циски делается совсем в конце.

А для работы с CiMC качни гайды для С-серии серверов, думаю должно быть аналогично.

Не знаю. Я совсем недавно цисками занимаюсь. Просто есть модуль очень похожий на UCS, но называется SM-SRE-910, под него выпускается антивирь Касперского, смотрел аналоги этого антивиря (серверные варианты с инспекцией), там всегда настраивается по принципу — один порт для провайдера, на модуле поднимается Антивирь и NAT, со второго порта в роутер. Хотелось бы NAT на роутере оставить.

C CIMC разобрался вроде, очень многое от обновления FW зависит. Сейчас стоит предпоследняя прошивка. Последнюю от 15 мая 2914 с сайта Cisco.com пропала. Прямо у меня на глазах — обновил страницы и пропала. Прошивка лежала меньше месяца. Может баги??

19 июн 2014, 11:47

Профиль

General Troubleshooting Solutions

This chapter includes the following sections:

Guidelines for Troubleshooting

When you troubleshoot issues with Cisco UCS Manager or a component that it manages, you should follow the guidelines listed in the following table.

Table 1. Troubleshooting Guidelines

Guideline

Description

Check the release notes to see if the issue
is a known problem.

The release notes are accessible through the
Cisco UCS B-Series Servers
Documentation Roadmap
available at the following URL:

http://www.cisco.com/go/unifiedcomputing/b-series-doc.

Take screenshots of the fault or error message
dialog box, the FSM for the component, and other relevant areas.

These screenshots provide visual cues about the state of Cisco UCS Manager when the problem occurred. If your computer does not have software to take screenshots, check the documentation for your
operating system, as it might include this functionality.

Record the steps that you took directly before
the issue occurred.

If you have access to screen or keystroke recording software, repeat the steps you took and record what occurs in Cisco UCS Manager.

If you do not have access to that type of software, repeat the steps you took and make detailed notes of the steps and what
happens in Cisco UCS Manager after each step.

Create a technical support file.

The information about the current state of the Cisco UCS domain is very helpful to Cisco support and frequently provides the information needed to identify the source of the problem.

Faults

In Cisco UCS, a fault is a mutable object that is managed by Cisco UCS Manager. Each fault represents a failure in the Cisco UCS domain or an alarm threshold that has been raised. During the lifecycle of a fault, it can change from one state or severity to
another.

Each fault includes information about the operational state of the affected object at the time the fault was raised. If the
fault is transitional and the failure is resolved, the object transitions to a functional state.

A fault remains in Cisco UCS Manager until the fault is cleared and deleted according to the settings in the fault collection policy.

You can view all faults in a Cisco UCS domain from either the Cisco UCS Manager CLI or the Cisco UCS Manager GUI. You can also configure the fault collection policy to determine how a Cisco UCS domain collects and retains faults.


Note

All Cisco UCS faults
are included in MIBs and can be trapped by SNMP.


Fault Severities

A fault raised in a Cisco UCS domain can transition
through more than one severity during its lifecycle. The following table describes the fault
severities that you may encounter.

Severity

Description

Critical

Service-affecting condition that requires immediate corrective action. For example, this severity could indicate that the
managed object is out of service and its capability must be restored.

Major

Service-affecting condition that requires urgent corrective action. For example, this severity could indicate a severe degradation
in the capability of the managed object and that its full capability must be restored.

Minor

Nonservice-affecting fault condition that requires corrective action to prevent a more serious fault from occurring. For example,
this severity could indicate that the detected alarm condition is not degrading the capacity of the managed object.

Warning

Potential or impending service-affecting fault that has no significant effects in the system. You should take action to further
diagnose, if necessary, and correct the problem to prevent it from becoming a more serious service-affecting fault.

Condition

Informational message about a condition, possibly independently insignificant.

Info

Basic notification or informational message, possibly independently insignificant.

Fault States

A fault raised in a Cisco UCS domain transitions
through more than one state during its lifecycle. The following table describes the possible
fault states in alphabetical order.

State

Description

Cleared

Condition that has been resolved and cleared.

Flapping

Fault that was raised, cleared, and raised again within a short time interval, known as the flap interval.

Soaking

Fault that was raised and cleared within a short time interval, known as the flap interval. Because this state may be a flapping
condition, the fault severity remains at its original active value, but this state indicates the condition that raised the
fault has cleared.

Fault Types

A fault raised in a Cisco UCS domain can be
one of the types described in the following table.

Type

Description

fsm

FSM task has failed to complete successfully, or Cisco UCS Manager is retrying one of the stages of the FSM.

equipment

Cisco UCS Manager has detected that a physical component is inoperable or has another functional issue.

server

Cisco UCS Manager cannot complete a server task, such as associating a service profile with a server.

configuration

Cisco UCS Manager cannot successfully configure a component.

environment

Cisco UCS Manager has detected a power problem, thermal problem, voltage problem, or loss of CMOS settings.

management

Cisco UCS Manager has detected a serious management issue, such as one of the following:

  • Critical services could not be started

  • The primary fabric interconnect could not be identified

  • Components in the Cisco UCS domain include incompatible firmware versions

connectivity

Cisco UCS Manager has detected a connectivity problem, such as an unreachable adapter.

network

Cisco UCS Manager has detected a network issue, such as a link down.

operational

Cisco UCS Manager has detected an operational problem, such as a log capacity issue or a failed server discovery.

generic

Cisco UCS Manager has detected a generic issue, such as Board Controller upgrade requires a manual power cycle of the server.

sysdebug

Cisco UCS Manager has detected a system debug issue, such as auto core transfer failure at remote server since the remote server is not accessible
or because the remote server details for transfer are incorrect.

security

Cisco UCS Manager has detected a security issue, such as invalid certificate.

chassis profile

This fault is raised when Cisco UCS Manager cannot complete a chassis task, such as associating a chassis profile with a chassis.

Fault
Properties

Cisco UCS Manager provides detailed information about each fault raised in a
Cisco UCS domain. The following table describes the fault properties that you can
view in
Cisco UCS Manager CLI or
Cisco UCS Manager GUI.

Property
Name

Description

Severity

Current
severity level of the fault, which can be any of the severities described in
Fault Severities
.

Last
Transition

Day and
time on which the severity for the fault last changed. If the severity has not
changed since the fault was raised, this property displays the original
creation date.

Affected
Object

Component
that is affected by the condition that raised the fault.

Description

Description of the fault.

ID

The unique identifier associated with the message.

Type

Type of
fault that has been raised, which can be any of the types described in
Fault Types
.

Cause

Unique
identifier associated with the condition that caused the fault.

Created at

Day and
time when the fault occurred.

Code

The unique identifier assigned to the fault.

Number of
Occurrences

Number of
times the event that raised the fault occurred.

Original
Severity

Severity
assigned to the fault the first time it occurred.

Previous
Severity

Previous
severity level. This property is only used if the severity of a fault changes
during its lifecycle.

Highest
Severity

Highest
severity encountered for this issue.

Lifecycle of Faults

Faults in Cisco UCS are stateful. Only one instance of a given fault can exist on each object. If the same fault occurs a second time, Cisco UCS increases the number of occurrences by one.

A fault has the following lifecycle:

  1. A condition occurs in the system and
    Cisco UCS Manager
    raises a fault. This is the active state.

  2. When the fault is alleviated, it enters a flapping or soaking interval that is designed to prevent flapping. Flapping occurs
    when a fault is raised and cleared several times in rapid succession. During the flapping interval, the fault retains its
    severity for the length of time specified in the fault collection policy.

  3. If the condition reoccurs during the flapping interval, the fault returns to the active state. If the condition does not reoccur
    during the flapping interval, the fault is cleared.

  4. The cleared fault enters the retention interval. This interval ensures that the fault reaches the attention of an administrator
    even if the condition that caused the fault has been alleviated and the fault has not been deleted prematurely. The retention
    interval retains the cleared fault for the length of time specified in the fault collection policy.

  5. If the condition reoccurs during the retention interval, the fault returns to the active state. If the condition does not
    reoccur, the fault is deleted.

Faults in Cisco UCS Manager GUI

If you want to view faults for a single object in the system, navigate to that object in the Cisco UCS Manager GUI and click the Faults tab in the Work pane. If you want to view faults for all objects in the system, navigate to the Faults node on the Admin tab under Faults, Events and Audit Log.

In addition, you can also view a summary of all faults in a Cisco UCS domain in the Fault Summary area in the upper left of the Cisco UCS Manager GUI. This area provides a summary of all faults that have occurred in the Cisco UCS domain.

Each fault severity is represented by a different icon. The number below each icon indicates how many faults of that severity
have occurred in the system. If you click an icon, the Cisco UCS Manager GUI opens the Faults tab in the Work pane and displays the details of all faults with that severity.

Faults in Cisco UCS
Manager CLI

If you want to view
the faults for all objects in the system, enter the
show fault
command from the top-level scope. If you want to view the faults for a specific
object, scope to that object and then execute the
show fault
command.

If you want to view
all available details about a fault, enter the
show fault
detail
command.

Fault Collection Policy

The fault collection policy controls the lifecycle of a fault in the Cisco UCS domain, including the length of time that each fault remains in the flapping and retention intervals.

Events

In Cisco UCS, an event is an immutable object that is managed by Cisco UCS Manager. Each event represents a nonpersistent condition in the Cisco UCS domain. After Cisco UCS Manager creates and logs an event, the event does not change. For example, if you power on a server, Cisco UCS Manager creates and logs an event for the beginning and the end of that request.

You can view events for a single object, or you can view all events in a Cisco UCS domain from either the Cisco UCS Manager CLI or the Cisco UCS Manager GUI. Events remain in the Cisco UCS until the event log fills up. When the log is full, Cisco UCS Manager purges the log and all events in it.

Properties of Events

Cisco UCS Manager provides detailed information about each event created and logged in a Cisco UCS domain. The following table describes the fault properties that you can view in Cisco UCS Manager CLI or Cisco UCS Manager GUI.

Table 2. Event Properties

Property Name

Description

Affected Object

Component that created the event.

Description

Description of the event.

Cause

Unique identifier associated with the event.

Created at

Date and time when the event was created.

User

Type of user that created the event, such as one of the following:

  • admin

  • internal

  • blank

Code

Unique identifier assigned to the event.

Events in the Cisco UCS Manager GUI

If you want to view events for a single object in the system, navigate to that object in the Cisco UCS Manager GUI and click
the Events tab in the Work pane. If you want to view events for all objects in the system, navigate to the Events node on
the Admin tab under the Faults, Events and Audit Log.

Events in the Cisco UCS Manager CLI

If you want to view events for all objects in the system, enter the show event command from the top-level scope. If you want to view events for a specific object, scope to that object and then enter the
show event command.

If you want to view all available details about an event, enter the show event detail command.

Audit Log

The audit log records actions performed by users in Cisco UCS Manager, including direct and indirect actions. Each entry in
the audit log represents a single, non-persistent action. For example, if a user logs in, logs out, or creates, modifies,
or deletes an object such as a service profile, Cisco UCS Manager adds an entry to the audit log for that action.

You can view the audit log entries in the Cisco UCS Manager CLI, Cisco UCS Manager GUI, or in a technical support file that
you output from Cisco UCS Manager.

Audit Log Entry
Properties

Cisco UCS Manager
provides detailed information about each entry in the audit log. The following
table describes the fault properties that you can view in the
Cisco UCS Manager GUI
or the
Cisco UCS Manager CLI.

Table 3. Audit Log Entry
Properties

Property
Name

Description

ID

Unique
identifier associated with the audit log message.

Affected
Object

Component
affected by the user action.

Severity

Current
severity level of the user action associated with the audit log message. These
severities are also used for the faults, as described
Fault Severities.

Trigger

User role
associated with the user that raised the message.

User

Type of user
that created the event, as follows:

  • admin

  • internal

  • blank

Indication

Action
indicated by the audit log message, which can be one of the following:

  • creation—A component was added to the system.

  • modification—An existing component was changed.

Description

Description
of the user action.

Audit Log in the Cisco UCS Manager GUI

In the Cisco UCS Manager GUI, you can view the audit log on the Audit Log node on the Admin tab under the Faults, Events and Audit Log node.

Audit Log in the
Cisco UCS Manager CLI

In the Cisco UCS
Manager CLI, you can view the audit log through the following commands:

  • scope security

  • show audit-logs

System Event
Log

The system event log (SEL) resides on the CIMC in NVRAM. It records most
server-related events, such as over and under voltage, temperature events, fan
events, and events from BIOS. The SEL is mainly used for troubleshooting
purposes.

The SEL file is approximately 40KB in size, and no further events can
be recorded when it is full. It must be cleared before additional events can be
recorded.

You can use the SEL policy to backup the SEL to a remote server, and
optionally clear the SEL after a backup operation occurs. Backup operations can
be triggered based on specific actions, or they can occur at regular intervals.
You can also manually backup or clear the SEL.

The backup file is automatically generated. The filename format is
sel-SystemName-ChassisID-ServerID-ServerSerialNumber-Timestamp;
for example, sel-UCS-A-ch01-serv01-QCI12522939-20091121160736.

SEL File

The SEL file is approximately 40 KB. No further events can be recorded when the SEL file is full. It must be cleared before
additional events can be recorded.

SEL Policy

You can use the SEL policy to back up the SEL to a remote server and optionally clear the SEL after a backup operation occurs.
Backup operations can be triggered, based on specific actions, or they can occur at regular intervals. You can also manually
back up or clear the SEL.

Cisco UCS Manager automatically generates the SEL backup file, according to the settings in the SEL policy. The filename format
is sel-SystemNameChassisIDServerIDServerSerialNumberTimestamp

For example, a filename could be sel-UCS-A-ch01-serv01-QCI12522939-20091121160736.

Syslog

The syslog provides a central point for collecting and processing system logs that you can use to troubleshoot and audit a
Cisco UCS domain. Cisco UCS Manager relies on the Cisco NX-OS syslog mechanism and API, and on the syslog feature of the primary fabric interconnect to collect
and process the syslog entries.

Cisco UCS Manager collects and logs syslog messages internally. You can send them to external syslog servers running a syslog
daemon. Logging to a central syslog server helps in aggregation of logs and alerts. Some syslog messages to monitor include,
DIMM problems, equipment failures, thermal problems, voltage problems, power problems, high availability (HA) cluster problems,
and link failures.


Note

The FSM faults, threshold faults, and unresolved policy events are not sent to syslog server. However, SNMP traps are generated
for the threshold fault events.


Cisco UCS Manager manages and configures the syslog collectors for a Cisco UCS domain and deploys the configuration to the fabric interconnect or fabric interconnects. This configuration affects all syslog entries
generated in a Cisco UCS domain by Cisco NX-OS or by Cisco UCS Manager.

You can configure Cisco UCS Manager to do one or more of the following with the syslog and syslog entries:

  • Display the syslog entries in the console or on the monitor

  • Store the syslog entries in a file

  • Forward the syslog entries to up to three external log collectors where the syslog for the Cisco UCS domain is stored

Syslog messages contain an event code and fault code. To monitor syslog messages, you can define syslog message filters. These
filters can parse the syslog messages based on the criteria you choose. You can use the following criteria to define a filter:

  • By event or fault codes: Define a filter with a parsing rule to include only the specific codes that you intend to monitor.
    Messages that do not match these criteria are discarded.

  • By severity level: Define a filter with a parsing rule to monitor syslog messages with specific severity levels. You can set
    syslog severity levels individually for OS functions, to facilitate logging and display of messages ranging from brief summaries
    to detailed information for debugging.

Syslog Entry Format

Each syslog entry generated by a Cisco UCS component is formatted
as follows:

Year month date hh:mm:ss hostname %facility-severity-MNEMONIC description

For example: 2007 Nov 1 14:07:58 excal-113 %MODULE-5-MOD_OK: Module
1 is online

Syslog Entry Severities

A syslog entry is assigned a Cisco UCS severity by Cisco UCS Manager. The following table shows how the Cisco UCS severities
map to the syslog severities.

Table 4. Syslog Entry Severities in Cisco UCS

Cisco UCS Severity

Syslog Severity

CRIT

CRIT

MAJOR

ERR

MINOR

WARNING

WARNING

NOTICE

INFO

INFO

Syslog Entry Parameters

The following table describes the information
contained in each syslog entry.

Table 5. Syslog Message Content

Name

Description

Facility

Logging facility that generated and sent the syslog entry. The facilities are broad categories that are represented by integers.
These sources can be one of the following standard Linux facilities:

  • local0

  • local1

  • local2

  • local3

  • local4

  • local5

  • local6

  • local7

Severity

Severity of the event, alert, or issue that caused the syslog entry to be generated. The severity can be one of the following:

  • emergencies

  • critical

  • alerts

  • errors

  • warnings

  • information

  • notifications

  • debugging

Hostname

Hostname included in the syslog entry that depends upon the component where the entry originated, as follows:

  • The fabric interconnect, Cisco UCS Manager,
    or the hostname of the Cisco UCS domain

  • For all other components, the hostname associated with the virtual interface (VIF)

Timestamp

Date and time when the syslog entry was generated.

Message

Description of the event, alert, or issue that caused the syslog entry to be generated.

Syslog Services

The following Cisco UCS components use the Cisco NX-OS syslog services to generate syslog entries for system information and
alerts:

  • I/O module—All syslog entries are sent by syslogd to the fabric interconnect to which it is connected.

  • CIMC—All syslog entries are sent to the primary fabric interconnect in a cluster configuration.

  • Adapter—All syslog entries are sent by NIC-Tools/Syslog to both fabric interconnects.

  • Cisco UCS Manager—Self-generated syslog entries are logged according to the syslog configuration.

Technical Support
Files

When you encounter an
issue that requires troubleshooting or a request for assistance to the Cisco
Technical Assistance Center (Cisco Technical Assistance Center), collect as much information as possible about the affected
Cisco UCS domain.
Cisco UCS Manager outputs this information into a tech support file that you can
send to Cisco.

You can create a tech
support file for the following components of a
Cisco UCS domain:

  • UCSM—Contains
    technical support data for the entire
    Cisco UCS domain.

  • UCSM management services—Contains technical support data for the
    Cisco UCS Manager
    management services, excluding Fabric Interconnects.

  • Chassis—Contains
    technical support data for the I/O module or the CIMCs on the blade servers in
    a given chassis only.

  • Fabric
    extender—Contains technical support data for the given FEX.

  • Rack
    server—Contains technical support data for the given rack-mount server and
    adapter.

  • Server memory—Contains server memory technical support data for the
    given rack-mount servers and blade servers.

Creating a Tech
Support File in the Cisco UCS Manager GUI


Note

In releases
earlier than Cisco UCS Manager Release 1.4(1), you can create a technical
support file only in the Cisco UCS Manager CLI.


Procedure


Step 1

In the
Navigation pane, click
Admin.

Step 2

Expand
.

Step 3

In the
Work pane, click
Create
and Download Tech Support
.

Step 4

In the
Path field in the
Create
and Download a Tech Support File
dialog box, enter the full path
where the technical support file should be saved.

This path must
be locally accessible. If you do not know the path, click the
Browse button to navigate to it.

Name Description

Path field

The
full path where the technical support file should be saved. This path must be
locally accessible.

Step 5

In the
Options area, click one of the following radio
buttons:

Option Description

ucsm

Creates a
file containing technical support data for the entire
Cisco UCS domain.

If
you select
ucsm,
Cisco UCS Manager GUI displays the following options:

  • Exclude Commands—Reduces the size
    of the tech support file by excluding all CLI commands.

  • Include Fabric Interconnect Trace
    Logs
    —Includes any trace logs generated by the fabric interconnects.

You should only check these options if directed to do so by
Cisco Technical Assistance Center.

ucsm-mgmt

Creates a
file containing technical support data for the
Cisco UCS management services, excluding the fabric
interconnects.

If
you select
ucsm-mgmt,
Cisco UCS Manager GUI displays the following options:

  • Exclude Commands—Reduces the size
    of the tech support file by excluding all CLI commands.

  • Include Fabric Interconnect Trace
    Logs
    —Includes any trace logs generated by the fabric interconnects.

You should only check these options if directed to do so by
Cisco Technical Assistance Center.

chassis

Creates a
file containing technical support data for either the CIMCs or I/O modules in a
given chassis. When you select this option,
Cisco UCS Manager GUI displays the following fields:

  • Chassis ID field—The chassis for which you want
    technical support data.

  • CIMC radio button—Select this option to get CIMC
    technical support data. To get the data for a single server within the chassis,
    enter that server’s ID in the
    CIMC ID field. To get the CIMC data for all servers
    in the chassis, enter
    all in this field.

  • IOM radio button—Select this option to get I/O
    module technical support data. To get the data for a single server within the
    chassis, enter that server’s ID in the
    IOM ID field. To get the I/O module data for all
    servers in the chassis, enter
    all in this field.

fabric-extender

Creates a
file containing technical support data for a fabric extender. When you select
this option,Cisco UCS Manager GUI displays the
FEX ID field that lets you enter the unique
identifier of the FEX for which you want technical support data.

rack-server

Creates a
file containing technical support data for a C-Series server. When you select
this option,
Cisco UCS Manager GUI displays the following fields:

  • Rack Server ID field—The unique identifier of the rack server, or the rack server number for which you want technical support data. For
    example, 4 or 7.

  • Rack Server Adapter ID field—The unique identifier
    of the adapter for which you want technical support data. To get the data for
    all adapters in the server, enter
    all in this field.

server-memory

Saves a
file containing server memory technical support data for B-Series and C-Series
servers to the specified directory. When you select this option,
Cisco UCS Manager GUI
displays the following field:

Server IDs field—The comma-separated list of unique identifiers of the blade servers and rack servers for which you want detailed server
memory technical support data.

For blade servers, each server ID is in the following form—chassis-num/blade-server-num. For example, 1/3 or 4/5.

For rack servers, each server ID is the following form—rackserver-num. For example, 4 or 7.

Step 6

Click
OK.


Creating a Technical
Support File in the Cisco UCS Manager CLI

Use the
show
tech-support
command to output information about a
Cisco UCS domain that you can send to
Cisco Technical Assistance Center.

Procedure

  Command or Action Purpose
Step 1

UCS-A#
connect
local-mgmt
{a |
b}

Enters local
management mode.

Step 2

UCS-A(local-mgmt) #
show
tech-support
{chassis
chassis-id {all |
cimc
slot
[adapter
adapter-id] |
iom
iom-id} |
fex
fex-id
|
server

server-id [adapter
adapter-id] |
server-memory {server-list |
all } |

ucsm |

ucsm-mgmt } [brief |
detail ]

Outputs
information about the selected objects in a file that you can send to
Cisco Technical Assistance Center. The following options are available:

  • chassis—Creates
    file containing technical support data for either the CIMCs or I/O modules in a
    given chassis.

  • fex—Creates a
    file containing technical support data for a fabric extender.

  • server—Creates a
    file containing technical support data for a C-Series server.

  • server-memory—Creates a technical support file with
    all server memory related information. You can run the
    server-memory command for the following:

    • One
      blade server or rack-mount server

    • Multiple blade servers

    • Multiple rack-mount servers

    • A mix
      of blade and rack-mount servers

    • All
      servers

    Important 

    Multiple
    servers specified in the
    server-list must be separated by commas. You cannot
    run this command for a range of servers.

    If you use
    the
    server-memory option with the
    detail option, detailed information about the memory
    is saved into a file and the file name and path are displayed.

  • ucsm—Creates a
    file containing technical support data for the entire Cisco UCS domain.

  • ucsm-mgmt—Creates
    a file containing technical support data for the Cisco UCS management services,
    excluding the fabric interconnects.

Step 3

UCS-A
(local-mgmt) #
copy
workspace:techsupport/ filename.tar {scp |
ftp }:
user_name@IP_address Enter
username’s password:
password

Copies the
output file to an external location through SCP or FTP.

The SCP and FTP
commands require an absolute path for the target location. The path to your
home directory cannot include special symbols, such as ‘~’.

Powering Down a
Cisco UCS Domain

You can decommission
an entire
Cisco UCS domain, for example as part of a planned power outage.

Procedure


Step 1

Create a
configuration backup.

For more
information, see the
Cisco UCS Manager configuration guides for the release of
Cisco UCS Manager that you are using. The configuration guides are accessible
through the
Cisco UCS B-Series Servers
Documentation Roadmap
available at the following URL:

http://www.cisco.com/go/unifiedcomputing/b-series-doc.

Step 2

Gracefully power
down all of the blades or rack servers from their installed operating system.

You can power
down the servers from the OS on the server or through
Cisco UCS Manager.

Step 3

Unplug the
chassis power or the power to the rack servers after all of the servers are
powered down.

When the servers
are powered down, the power LEDs are amber rather than green.

Step 4

Power down each
fabric interconnect by unplugging the power cords in the following order:

  • Unplug the
    subordinate fabric interconnect.

  • Unplug the
    primary fabric interconnect.


Verification of LDAP Configurations


Note

This procedure can be performed only through the Cisco UCS Manager CLI.


The Cisco UCS Manager CLI test commands verify the configuration of the Lightweight Directory Access Protocol (LDAP) provider or the LDAP provider group.

Verifying the LDAP Provider Configuration


Note

The test aaa server ldap command verifies the server-specific configuration, irrespective of the LDAP global configurations. This command uses the
values for the base DN, filter, attribute, and timeout that are configured at the LDAP provider level. If the base DN or filter
at the provider level is empty, the LDAP search fails.


You can enter the test aaa server ldap command to verify the following information if Cisco UCS Manager is able to communicate with the LDAP provider as follows:

  • The server responds to the authentication request if the correct username and password is provided.

  • The roles and locales defined on the user object in the LDAP are downloaded.

  • If the LDAP group authorization is turned on, the LDAP groups are downloaded.

Procedure

  Command or Action Purpose
Step 1

connect nxos

Enters nxos mode.

Step 2

test aaa server ldap

Tests the LDAP provider configuration.

Example

The following is an example of the response:


UCS-A# /security # connect nxos 
UCS-A#(nxos)# test aaa server ldap 10.193.23.84 kjohn Nbv12345
user has been authenticated
Attributes downloaded from remote server:
User Groups:
CN=g3,CN=Users,DC=ucsm  CN=g2,CN=Users,DC=ucsm  CN=group-2,CN=groups,DC=ucsm  
CN=group-1,CN=groups,DC=ucsm  CN=Domain Admins,CN=Users,DC=ucsm
CN=Enterprise Admins,CN=Users,DC=ucsm  CN=g1,CN=Users,DC=ucsm  
CN=Administrators,CN=Builtin,DC=ucsm
User profile attribute:
shell:roles="server-security,power"
shell:locales="L1,abc"
Roles:
server-security power
Locales:
L1 abc

Verifying the LDAP Provider Group Configuration


Note

The test aaa group command verifies the group-specific configuration, irrespective of the LDAP global configurations.


You can enter the test aaa group command to verify the following information if Cisco UCS Manager is able to communicate with the LDAP group as follows:

  • The server responds to the authentication request if the correct username and password is provided.

  • The roles and locales defined on the user object in the LDAP are downloaded.

  • If the LDAP group authorization is turned on, the LDAP groups are downloaded.

Procedure

  Command or Action Purpose
Step 1

connect nxos

Enters nxos mode.

Step 2

test aaa group

Tests the LDAP group configuration.

Example

The following is an example of the response:


UCS-A# /security # connect nxos
UCS-A#(nxos)# test aaa group grp-ad1 kjohn Nbv12345
user has been authenticated
Attributes downloaded from remote server:
User Groups:
CN=g3,CN=Users,DC=ucsm  CN=g2,CN=Users,DC=ucsm  CN=group-2,CN=groups,DC=ucsm  
CN=group-1,CN=groups,DC=ucsm  CN=Domain Admins,CN=Users,DC=ucsm
CN=Enterprise Admins,CN=Users,DC=ucsm  CN=g1,CN=Users,DC=ucsm  
CN=Administrators,CN=Builtin,DC=ucsm
User profile attribute:
shell:roles="server-security,power"
shell:locales="L1,abc"
Roles: 
server-security power
Locales:
L1 abc

October 21 2011, 15:59

Categories:

  • IT
  • Компьютеры
  • Cancel

Ошибки могут накапливаться по следующим причинам:

  1. Проблема со средой передачи (физика) — это может быть битая пара (если по меди), сгиб оптического патча, неисправный RJ45 и т.п. 
  2. Наводки — проявляются только с медью. Если кабель идет рядом с железными прутьями, с эл кабелем и т.п. Если UTP  брошена мотком — то могут проявиться перекрестные наводки. 
  3. Неправильные настройки на интерфейсах.

Рассмотрим последний пункт подробнее:
CISCO не дружит с другими производителями сетевого оборудования.
Открою секрет — разные модели cisco могут также не дружить между собой.
Если команда sh int fa0/1 выдала следующее

 11802 input errors, 11801 CRC, 0 frame, 0 overrun, 0 ignored

Попробуйте поиграться с настройками скорости и дуплекса на интерфейсе:
conf t
int fa 0/1 

duplex auto
speed auto
или
duplex full
speed 100

Также посмотрите на тип инкапсуляции, если у вас оба порта находятся в trunk.
При различных типах ничего не заработает.
Устанавливаем на обоих портах:
switchport trunk enc dot1q

Примечание: коммутаторы 29xx серии 

dot1q

В продолжение поста о распаковке Cisco UCS, приехавшей в наш Центр компетенции, мы расскажем о Cisco UCS Manager, с помощью которого производится настройка всей системы. Данную задачу мы выполнили в рамках подготовки к тестированию FlexPod (Cisco UCS + NetApp в режиме MetroCluster) для одного из наших заказчиков.

Отметим основные преимущества Cisco UCS, благодаря которым выбор пал именно на данную систему:

  • Cisco UCS является унифицированной системой, а не разрозненной группой серверов с попыткой единого
    управления;
  • наличие унифицированной фабрики, которая содержит встраиваемое управление, использование универсального
    транспорта, отсутствие уровня коммутации в шасси и на уровне гипервизора– Virtual Interface Card, простое
    каблирование;
  • единая конвергентная фабрика на всю систему (единовременное управление до 320 серверами) в отличие от
    конкурентов – своя фабрика на каждое шасси (до 16 серверов);
  • одна точка управления, быстрота конфигурирования при использовании политик и профилей, что дает минимизацию
    рисков при настройке, развертывании, тиражировании, обеспечивает высокую масштабируемость.

Традиционные блейд системы имеют следующие недостатки:

  • каждый блейд-сервер – идеологически, с точки зрения управления такой же стоечный или башенный сервер, только
    в другом форм-факторе;
  • каждый сервер – сложная система с большим числом компонентов и большим числом мощных средств управления;
  • каждое шасси, каждый сервер, и в большинстве случаев каждый коммутатор должны настраиваться отдельно и чаще
    всего «вручную»;
  • «зонтичные» «единые» системы управления существуют, но это в большинстве случаев просто набор ссылок на
    отдельные утилиты;
  • интеграция «наверх» у этих систем возможна, но ограничивается «стандартными» простыми интерфейсами.

В отличие от конкурентов Cisco UCS имеет продуманную систему управления – UCS Manager. Данный продукт имеет следующие отличительные особенности:

  • не требует отдельного сервера, СУБД, ОС и лицензий на них — он часть UCS;
  • не требует инсталляции и настройки – просто включите систему и задайте IP-адрес;
  • обладает встроенной отказоустойчивостью;
  • имеет эффективные и простые средства резервного копирования конфигурации;
  • обновляется несколькими «кликами»;
  • делегирует весь свой функционал «наверх» через открытый XML API;
  • стоит $0.00.

Сам Cisco UCS Manager располагается на обоих Fabric Interconnect, и, соответственно, все настройки, политики и т.п. хранятся также на них.

К одной паре Fabric Interconnect может подключено до 20 блейд-шасси. Управление каждым из шасси осуществляется из одной точки – UCS Manager. Это возможно благодаря тому, что Fabric Interconnect строится как распределенный коммутатор с участием Fabric Extender’ов . Каждое шасси имеет по два Fabric Extender, с возможностью подключения 4 либо 8 10GB линками каждый.

Начинаем с самого основного: подключения консольного провода и задания начального IP-адреса.
После чего запускаем браузер и соединяемся. (Понадобится java, т.к. по сути GUI UCS Manager’а реализовано на ней). На рисунках ниже представлен внешний вид программы, который появляется на экране после ввода логина и пароля и входа в UCS Manager.

Работу по настройке начинаем на вкладке «LAN». Надо отметить, что с настройки данной вкладки, а также вкладки «SAN» начинается настройка всей системы. Особенно актуально это в случае использования бездисковых серверов – как раз наш случай.

Здесь настраивается абсолютно все, что имеет отношение к сети: какие VLAN разрешены на том или ином Fabric Interconnect, какими портами соединены Fabric Interconnect между собой, какие порты в каком режиме работают и многое другое.

Также на этой вкладке настраиваются шаблоны для виртуальных сетевых интерфейсов: vNIC, которые в дальнейшем будут применяться в сервисных политиках, описанных выше. На каждый vNIC (которых к слову на хосте может быть до 512 при установке 2 плат Cisco UCS VIC) привязывается определенный VLAN, либо группа VLAN и «общение» физического хоста по сети идет именно через эти vNIC.

Организация такого количества vNIC возможна с помощью карты виртуального интерфейса VIC (Virtual Interface Card). В семействе блейд серверов Cisco UCS существует 2 вида VIC: 1240 и 1280.

Каждая из них имеет возможность поддержки до 256 vNIC или vHBA. Главное отличие в том, что 1240 является LOM модулем, а 1280 мезанинная карта, так же в пропускной способности.

1240 самостоятельно имеет возможность агрегации до 40 GB, с возможностью расширения до 80GB при использовании Expander Card.

1280 изначально умеет пропускать через себя до 80GB.

VIC позволяют динамически назначать пропускную способность на каждый vNIC или vHBА, а так же поддерживают hardware failover.

Ниже можно заметить несколько созданных пулов IP адресов, из которых эти самые адреса будут присваиваться сетевым интерфейсам в определенных VLAN (этакий аналог EBIPA у HP). Аналогично дело обстоит и с MAC адресами, которые берутся из MAC пулов.

В общем концепция простая: создаем VLAN(ы), настраиваем порты на Fabric Interconnect, настраиваем vNIC, выдаем этим vNIC MAC/IP адреса из пулов и загоняем в сервисную политику для дальнейшего использования.

Важное замечание: Как вы знаете существуют валидированные дизайны Cisco с крупными игроками рынка систем хранения данных, например, такой как FlexPod. Дизайн FlexPod включает серверное и сетевое оборудование – Cisco, а в роли СХД выступает NetApp. Зачем спросите вы там еще и сетевое оборудование? Дело все в том, что в версии 1.4 и 2.0 UCS Manager сам Fabric Interconnect не осуществлял FC зонирование. Для этого был необходим вышестоящий коммутатор (например, Cisco Nexus), подключенный к Fabric Interconnect через Uplink порты. В версии UCS Manager 2.1. появилась поддержка локальных зон, что дало возможно подключать Storage напрямую к Fabric Interconnect. Возможные дизайны можно посмотреть вот здесь. Но все-таки оставлять FlexPod без коммутатора не стоит, т.к. FlexPod является самостоятельным строительным блоком ЦОДа.

Перейдем к следующей вкладке: «SAN».

Здесь располагается все, что относится к сети передачи данных: iSCSI и FCoE. Концепция такая же, как и у сетевых адаптеров vNIC, но со своими отличиями: WWN, WWPN, IQN и т.п.

Переходим на вкладку «Equipment».

С помощью данного интерфейса можно увидеть информацию о нашей общей вычислительной инфраструктуре, которая была развернута для тестирования. Так, было задействовано одно шасси (Chassis 1) и четыре сервера-лезвия (Server1, Server2, Server3, Server4). Эту информацию можно получить из дерева в левой части (Equipment), либо в графическом виде (Physical Display).

Помимо количества шасси/серверов можно посмотреть информацию о вспомогательных компонентах (вентиляторы, блоки питания и т.п.), а также информацию об алертах разного типа. Общее количество алертов выводится в блоке «Fault Summary», отдельно информацию по каждому узлу можно посмотреть, кликнув по нему слева. Цветные рамки вокруг названий узлов слева помогают узнать, на каком узле есть алерты. Внимательные читатели заметят также небольшие пиктограммы и на графическом виде.

Наши Fabric Interconnect настроены на работу в failover режиме (при выходе из строя одного из агрегатов – его работу незамедлительно возьмет на себя другой). Информация об этом видна в самом низу дерева – обозначения primary и subordinate.

Далее переходим к вкладке «Servers».

Здесь находятся различные политики, шаблоны сервисных профилей и непосредственно сами сервисные профили. Например, мы можем создать несколько организаций, каждой из которых назначить свои политики выбора загрузочного устройства, доступа к определенным VLAN/VSAN и др.

На следующем рисунке показан пример настройки iSCSI загрузочного луна.

Глобальный смысл всего этого: предварительно настроив все политики и шаблоны, можно быстро настраивать новые сервера для работы, применяя тот или иной сервисный профиль (Service Profile).

Сервисный профиль, который содержит в себе вышеупомянутые настройки, может быть применен к одному определенному серверу, либо группе серверов. Если в ходе развертывания возникают какие-либо ошибки или сообщения – мы можем посмотреть их в соответствующей вкладке «Faults»:

После чего пользователи этих организаций могут развернуть и настроить сервер под себя с выбранной операционной системой и набором предустановленным набором программного обеспечения. Для этого необходимо воспользоваться возможностями интерфейса UCS Manager, либо обратившись к автоматизации: например при помощи продукта VMware vCloud Automation Center или Cisco Cloupia.

Переходим на вкладку «VM».

В VMware vCenter можно установить плагины для Cisco UCS Manager. Так, мы подключили плагин, через который подключили виртуальный дата-центр с названием «FlexPod_DC_1». В нем работает Cisco Nexus 1000v (nexus-dvs), и мы имеем возможность смотреть его настройки.

Ну и последняя вкладка: «Admin».

Здесь мы можем посмотреть глобальные события: ошибки, предупреждения. Собрать различные данные в случае обращения в поддержку Cisco TAC и т.п. вещи. В частности их можно получить на вкладках «TechSupport Files», «Core Files».

На скриншоте видны ошибки, связанные с отключением электричества. В рамках тестирования мы отключали по очереди блоки питания (Power supply 1 in fabric interconnect A, B) для демонстрации заказчику стабильности работы системы при смоделированном случае отключения подачи питания на одном энерговводе.

В качестве заключения хотим отметить, что весь процесс настройки и тестирования FlexPod, частью которого является настройка и тест Cisco UCS, занял целую неделю. Немного усложнило задачу отсутствие документации для последней версии UCS Manager 2.1. Приходилось пользоваться вариантом для 2.0, который имеет ряд расхождений. На всякий случай выкладываем ссылку на документацию. Возможно, и она кому-нибудь пригодится.

В следующих постах мы продолжим освещать тему FlexPod. В частности мы планируем рассказать о том, как мы вместе с заказчиком тестировали NetApp в режиме MetroCluster в составе FlexPod. Не отключайтесь!

Типы ошибок на сети

В этой небольшой статье я хочу показать самые распространённые типы ошибок, возникающие на сетевом интерфейсе коммутатора или роутера. Это будет полезно при проведении диагностики и аудита локальной сети среднего и крупного масштаба.

Align-Err
Количество ошибок выравнивания.
Как правило, увеличение данного счетчика свидетельствует о проблемах согласования дуплексных режимов, либо о наличии проблемы на физическом уровне.

collisions
Число коллизий произошедших до окончания передачи пакета. Нормальное явление для полудуплексного интерфейса. Быстрый рост счетчика может быть вызван высокой загрузкой интерфейса, либо несоответствием режимов дуплекса.

CRC
Несовпадение контрольной суммы кадра.
Обычно является результатом конфликтов, но может указывать и на физическую неполадку. В некоторых случаях возможны наводки на физику ЛВС, либо помехи.

Pause input
Подключенное устройство запрашивает приостановку передачи трафика при переполнении его буфера.

Excess-Col
Подобно коллизиям не должно наблюдаться на полнодуплексном интерфейсе.

FCS-Err
Ошибки в контрольной последовательности кадров.
Как правило, увеличение данного счетчика свидетельствует о проблемах согласования дуплексных режимов, либо о наличии проблемы на физическом уровне.

Ignored
Может быть признаком широковещательного шторма в сети.

Late-Col
Коллизии на последних этапах передачи кадра. Не должны наблюдаться на полнодуплексном порту.

Lost carrier
Потеря несущей. Проблемы на физическом уровне.

Underruns
Скорость передатчика превышает возможности коммутатора.

Undersize
Полученные кадры с размером меньше минимума. Необходимо проверить устройство, посылающее такие кадры

Cisco Unified Computing System (UCS) — это платформа для ЦОД следующего поколения, которая объединяет вычислительные и сетевые ресурсы, доступ к системам хранения данных, а также средства виртуализации в единую систему. Решение позволяет значительно снизить затраты на эксплуатацию ЦОД и увеличивает операционную эффективность бизнеса. 

Система объединяет в себе универсальную высокоскоростную сетевую инфраструктуру (unified fabric) на базе технологий 10-Gigabit Ethernet и широко используемую x-86 архитектуру серверов компании Intel. Решение Cisco UCS позволяет создать интегрированную и масштабируемую платформу, в которой все элементы решения управляются централизовано.  

Cisco UCS имеет в своем составе единую систему управления, которая позволяет управлять комплексами до 160 физических серверов, на каждом из которых могут функционировать десятки виртуальных машин, обеспечивая превосходное масштабирование ЦОД без увеличения сложности управления.

Архитектура системы Cisco UCS улучшает переносимость профилей физических машин, т.к. профиль сервера, конфигурация его LAN/SAN соединений и I/O, встроенного ПО и профили сетевых соединений могут быть динамически присвоены любому физическому серверу в системе. Такая высокодинамичная среда с поддержкой принципа Stateless Computing может быть легко адаптирована для удовлетворения быстро меняющихся требований современных центров обработки данных. Это подразумевает внедрение в нужный момент необходимых вычислительных ресурсов и перемещение рабочей нагрузки.

Cisco Unified Computing System улучшает доступность, безопасность и производительность благодаря интегрированному дизайну системы.

Компоненты системы UCS 

          Центральные коммутаторы UCS 6200 Series Fabric 

          Шассиблейдсерверов UCS 5100 Series 

          Сетевыемодули UCS 2200 Series Fabric Extender 

          Блейдсерверы UCS B-Series 

          Стоечные-серверы UCSCSeries 

          Сетевые адаптеры UCS 

          Модуль управления UCS Manager 

Центральные коммутаторы UCS серии 6200 Fabric Interconnect 

Конвергентные коммутаторы сочетают функции коммутации трафика ethernet и fibre channel с управлением системой UCS. Архитектура коммутаторов предусматривает коммутацию трафика на скоростях до 10 Гбит/с без потерь пакетов и с крайне низкими задержками. Устройства поставляются в корпусе 1RU с 48 портами или в корпусе 2RU с 96 портами. Поддерживают модули расширения, обеспечивающие подключения Fibre Channel и 10 Gigabit Ethernet.  

Основные функции:  

        10 Gigabit Ethernet порты SFP+, поддержка FCoE  
        Варианты 48 и 96 встроенных портов со слотами расширения для добавления портов Fibre Channel и 10 GE 
        Встроенная система управления UCS Manager 
        До 1.04 Tbps производительности 
        Зарезервированные блоки питания и вентиляторы с «горячей заменой» 
        Управление до 40 шасси на систему UCS

Сетевоймодуль UCS серии 2200 Fabric Extender 

              Модули обеспечивают связи между центральными коммутаторами и блейд-серверами. С их помощью упрощаются процессы диагностики, подключения кабелей и управления системой. 

Основные функции: 

        Подключение блейд-шасси UCS к центральным коммутаторам (Fabric Interconnect)
        8 внешних порта 10 Gigabit Ethernet SFP+ с поддержкой FCoE
        До двух модулей на шасси для обеспечения отказоустойчивости и до 80 Гбит/с полнодуплексной производительности
        Встроенное управление шасси
        Управляется UCS Manager через центральный коммутатор

Шасси для блейд-серверов UCS серии 5100

Представляет собой серверную корзину, которая поддерживает до восьми блейд-серверов и до двух сетевых модулей в корпусе 6RU, не требуя дополнительных модулей управления. 

Основные функции: 

        4 блока питания (резервирование по схеме N+1 или N+N )
        8 вентиляторов (по умолчанию) 
        Охлаждение «спереди назад» 
        Высота шасси 6U  
        Внутрь можно установить до 8 блейд-серверов половинной ширины или 4 блейд-сервера полной ширины 
        Все блейд-серверы одинарной высоты 
        Установка до 2-х сетевых модулей 
        Индикаторная идентификация 

Блейд-серверы UCS (серия B) 

Блейд-серверы UCS – это блейд-серверы архитектуры x86 на базе процессоров Intel Xeon, которые адаптируются под требования приложений, регулируют использование электроэнергии и обеспечивают лучшую виртуализацию среди устройств своего класса. Уникальная технология расширения памяти Cisco значительно увеличивает объем памяти, что повышает производительность и пропускную способность для ресурсоемких приложений виртуализации и обработки крупных наборов данных. Кроме того, эта технология предлагает более экономичный вариант памяти для менее требовательных рабочих нагрузок.

Стоечные серверы UCS (серия C)

Стоечные серверы UCS — серверы, предназначенные для работы в автономных средах и в составе среды унифицированных вычислений Cisco, выполненные в стандартном конструктивном исполнении. Они поддерживает модель пошагового развертывания с возможностью будущего перехода на унифицированные вычисления.

Сетевые адаптеры Cisco UCS

В настоящее время все сетевые адаптеры для блейд-систем условно можно поделить на три типа: традиционные, конвергентные и виртуализиро-ванные. 

            Традиционные адаптеры — классические адаптеры с аппаратной поддержкой протокола Ethernet и программной поддержкой конвергентного протокола Fibre Channel over Ethernet, предназначенные для передачи и обмена данными в сети. Наиболее известный производитель таких адаптеров — компания Intel, Broadcom. 

            Конвергентные адаптеры — адаптеры с интегрированными чипами протоколов 10GbE и Fibre Channel или имеющие конвергентный чип протокола FCoE. На данный момент это наиболее используемый тип адаптеров в существующих серверных системах. Наиболее распространенные производители этих типов — компании Emulex и Qlogic. 

            Виртуализированные адаптеры – адаптеры, которые позволяют создать несколько логических адаптеров как в динамике (например, при интеграции с системами виртуализации), так и статично. Использование виртуализированного адаптера в среде гипервизора позволяет перенести задачи коммутации трафика между сетевыми машинами на сетевое оборудование, что позволяет высвободить процессорные ресурсы и предоставить их виртуальным машинам, тем самым повысить их производительность в целом.  

Компания Cisco Systems разработала собственный виртуализированный двухпортовый конвергентный адаптер Cisco Virtualized Interface Card с исключительными характеристиками, позволяющий иметь преимущество перед другими производителями:

            Способен создать до 58 виртуализированных Ethernet или FC адаптеров (на одном физическом адаптере с использованием метки VNTag проекта стандарта IEEE 802.1Qbh) 
            Поддержка стандарта PCIe 
            Работа в виртуализированной и невиртуализированной среде 
            Поддержка Hypervisor Bypass 
            Отказоустойчивость на аппаратном уровне 
            Высокая производительность (2x 10Gb, >600K IOPS) 

В стоечных серверах UCS используются наиболее востребованные сетевые адаптеры в виде карт PCIe, таких производителей, как QLogic, Broadcom, Emulex и Intel, а также виртуализированный PCIe адаптер Cisco VIC.

Программный модуль UCS manager

UCS Manager – это встроенный программный модуль, с помощью которого осуществляется управление всеми компонентами блейд-системы. Интерфейс UCS Manager разделен на пять зон: администрирование, оборудование, серверы, ЛВС и сеть хранения. Под администрированием подразумеваются операции, производимые с помощью UCS Manager. Оборудование — это, как правило, задействованная в данный момент физическая основа UCS. Серверами в общем случае именуются логические серверы, созданные и используемые посредством UCS Manager. В зону ЛВС включается всё, что относится к локальным сетям, а в зону сети хранения — всё, что касается ресурсов хранения.

Преимущества Unied Computing System (UCS)

        Встроенное управление системой

Каждый из компонентов объединенной системы вычислений Cisco UCS поставляется со встроенным микропрограммным обеспечением, которое позволяет управлять работой устройства с помощью Cisco UCS Manager. Администраторы сети, системы хранения данных и серверов могут работать с графическим пользовательским интерфейсом или интерфейсом командной строки системы Cisco UCS Manager или, используя документированный набор функций XML API, из существующей корпоративной системы управления ЦОД.

Ролевая модель контроля упрощает решение задач управления, к которым должны привлекаться группы администраторов серверов, сети и системы хранения данных, позволяя ограничить область распространения специальной информации рамками каждой группы. Это позволят экспертам по конкретным вопросам следовать обычным рабочим процедурам и интегрировать все данные о конфигурации в рамках единой системы управления, а не в разрозненных системах, как это нередко происходит в современных ЦОД.

        Внедрение приложений с использованием сервисных профилей

ПО UCS Manager реализует концепцию управления на базе ролей и политик с использованием сервисных профилей и шаблонов. Информация о параметрах системы электропитания, охлаждения, физической безопасности, а также о состоянии оборудования, конфигурации сетевой среды и сети хранения данных содержится в сервисном профиле. Использование сервисных профилей позволяет ИТ-персоналу ЦОД снизить время внедрения приложений в ЦОД от дней до минут.

        Объединенный транспорт

Разработанная CiscoSystems технология консолидированной сети (uniedfabric) на базе наборов стандартов DataCenterBridging и FibreChanneloverEthernet (FCoE) позволяет значительно снизить затраты на элементы сетевой инфраструктуры (множество сетевых адаптеров, коммутаторы LAN, SAN, различные сетевые кабели и т.п.). Сетевые модули шасси позволяют отказаться от использования коммутаторов в составе блейд-серверов путем транзита всего трафика от серверов через централизованную фабрику коммутации, где трафик будет обрабатываться и коммутироваться по назначению. Унифицированная фабрика коммутации строится на базе технологии 10-Gigabit Ethernet со стандартными кабельными соединениями. Теперь в случае изменения типа подключения сервера к сети нет необходимости в установке дополнительных адаптеров и прокладке новых кабелей.

        Поддержка технологии виртуализации (VN-Link)

Технология Cisco VN-Link расширяет границу сети до виртуальной машины. Эта технология стирает различия по управлению сетевой инфраструктурой для физических и виртуальных серверов. Теперь все сетевые соединения настраиваются и управляются централизовано, без выделения дополнительного уровня коммутации для виртуальных сред. Конфигурации портов ввода/вывода и сетевые политики могут перемещаться между виртуальными серверами, что увеличивает эффективность и уменьшает сложность их эксплуатации.

        Виртуализированный адаптер Cisco VIC

          Виртуализированный адаптер Cisco VIC позволяет получить на одномдвухпортовом конвергентном адаптере динамически или статически до 58 виртуальных адаптеров, каждый их которых представлен PCIe-функцией. Таким образом, операционная система «видит» каждый из виртуальных адаптеров как физический адаптер. Данным виртуальным адаптерам можно гарантировать полосу пропускания; неиспользуемая в текущий момент часть полосы пропускания любого виртуального адаптера может быть динамически распределена между другими виртуальными адаптерами, которым в тот же момент требуется бОльшая полоса, чем им гарантировал системный администратор.

        Технология расширения памяти Cisco

Технология расширения памяти Cisco позволяет увеличить в 4 раза количество разъемов для установки модулей памяти DIMM (до 96) по сравнению с классическими двухпроцессорными серверами архитектуры x86 при сохранении скорости частоты 1866Мгц. Увеличение оперативной памяти позволяет увеличить производительность работы серверов, особенно при работе в виртуальных средах.

        Современная производительность

В решении Cisco UCS используются блейд-сервера, построенные на базе процессоров серии Intel Xeon E5 v2 и Е7 v2. Эти многоядерные процессоры интеллектуально и автоматически регулируют производительность серверов в соответствии с требованиями приложений, увеличивают производительность в необходимый момент и существенно экономят энергопотребление в период простоя. Для более точного управления серверами все параметры производительности и экономии электроэнергии могут быть настроены вручную.

        Энергетическая эффективность

Компоненты решения Cisco UCS были спроектированы с учетом требований по энергетической эффективности. Упрощенная архитектура системы позволила сократить количество элементов, для которых необходимо электропитание и охлаждение примерно на 50% по сравнению с классическими средами блейд-серверов. Шасси блейд-серверов в решении Cisco UCS сделано таким образом, чтобы значительно увеличить теплообмен с окружающей средой. Решение Cisco UCS использует новые, более эффективные блоки питания для своих компонентов.

Гарантия и сервисные контракты

Компания Cisco Systems на все продукты UCS помимо стандартной гарантии по желанию партнеров предоставляет сервисные контракты.

Unified Computing Warranty (3-year) — бесплатная стандартная гарантия сроком на 3 года, она включает в себя:

          Загрузку прошивок BIOS и драйверов
          Авансовую замену оборудования сроком NBD (next business day)
          90-дневную гарантию на программный носитель
          Круглосуточный доступ в службу технической поддержки Cisco TAC для оформления RMA

Unified Computing Warranty Plus — платное расширение гарантии сроком на 1 год (по умолчанию) включает:

          Все выше перечисленное
          Более гибкое время реакции на замену оборудования • Возможность замены оборудования на площадке у заказчика

 Unified Computing Support Service — платный сервисный контракт сроком на 1 год (по умолчанию), включает:

          Все выше перечисленное
          Круглосуточная поддержка в TAC на ПО (все ОС, VMWare, BMC BladeLogic)
          Разделение зоны ответственности между Cisco и производителем ПО
          Возможность проактивной диагностики оборудования
          Круглосуточный доступ в службу Cisco TAC по любым вопросам
          Обновление UCS Manager

ucs_cisco@marvel.ru

Компания Марвел: +7 812 326 3232; +7 495 745 8008, www.marvel.ru

Intel, логотип Intel,Xeon и Xeon Inside являются товарными знаками корпорации Intel на территории США и других стран.

Данный материал является частной записью члена сообщества Club.CNews.
Редакция CNews не несет ответственности за его содержание.

Номер статьи: 0000204

Обычно настройку производят сотрудники банка. Драйвера и инструкции можно скачать по ссылке

Краткая инструкция по установке и настройке МикроМодуля 

TCP/IP

УСТАНОВКА МИКРОМОДУЛЯ:

1) Распаковать архив MM260816_IP.zip  на рабочую станцию в произвольный каталог.

    Например – C:temp .

2) Перезагрузить рабочую станцию. Войти в систему под учетной записью администратора или пользователя с правами администратора.

3) Запустить файл custom.bat

4) Нажимать кнопку «Далее» до завершения установки.

5) Установка завершена. МикроМодуль установлен в каталог C:UCS .

 Замечание.

   Автоматически выполняется установка и регистрация в системе COM-обертки — UCS_MA.ocx.

 НАСТРОЙКА МИКРОМОДУЛЯ:

1) Открываем на редактирование файл micromgl.cfg в папке C:UCS c помощью блокнота или любого текстового редактора.

 2) В данном файле есть блок параметров [PROXY].

Он имеет вид:

 [PROXY]

TYPE=IP

ADDR=172.16.32.177:4001

FMT=H

TO=3200

 В переменной «ADDR» нужно изменить IP-адрес  172.16.32.177 на тот, который присвоен терминалу.

Важно: изменить нужно только адрес, номер порта ( :4001 ) оставляем неизменным.

 3) Сохраняем и закрываем файл.

ПРОВЕРКА СВЯЗИ С ТЕРМИНАЛОМ:

1) Перейти в каталог C:UCSBIN .

2) Запустить файл test.bat

3) На терминале должна начаться операция «Инкассация».

 Если инкассация началась, это значит, что связь между терминалом и кассой присутствует, и настройки МикроМодуля верны. После этого можно приступать к необходимым настройкам кассы.

 Замечания.

  • 1) В bat выполняется запуск утилиты ucs_dt.exe. Лог утилиты: файл stdout.txt.
        В данном файле, при необходимости, можно увидеть ID подключенного терминала (TID).
        См. строку вида: 

               2016-10-14 14.11.08 {000014AC} L[0:300] : UCS_DT: Recevd (3100199997310210)

               TID в данном примере: 19999731.

 2) При возникновении вопросов, в тех. службу необходимо передавать логи:

Лог микромодуля:  файл ucs_comm.log

Лог утилиты ucs_dt: файл stdout.txt .

Просмотры: 4096

    Introduction

    This document describes commands used to troubleshoot network connectivity, drops, and CRC errors within different UCS, FIs, IOMs, and VIC adapters.

     Prerequisites

     Requirements

      This document assumes that you have knowledge of these topics:

    • Cisco Unified Computing Systems (UCS) Virtual Interface Card (VIC)
    • Cisco UCS B-Series and C-Series servers
    • Cisco UCS Fabric extender I/O Module (IOM)
    • Cisco UCS Fabric Interconnect (FI)
    • Cisco Unified Computing System Manager (UCSM)
    • Cisco Unified Computing System Manager (UCSM) Command Line Interface (CLI)
    • Cut-through and store-and-forward switches
    • Stomps

    Components Used

    The information in this document is based on these software and hardware versions:

    • Cisco UCS Manager version 2.x and later
    • Cisco UCS 6200, 6300, and 6400 Series Fabric Interconnect
    • Cisco UCS 2200, 2300 and 2400 Series Fabric extender I/O Module
    • Cisco UCS 1200, 1300, and 1400 Series Virtual Interface Card (VIC)

    The information in this document was created from the devices in a specific lab environment. All of the devices used in this document started with a cleared (default) configuration. If your network is live, ensure that you understand the potential impact of any command.

     Background Information 

    The Cisco UCS Fabric Interconnect is a cut-through switch like the Cisco Nexus 5000 Series Switches. It forwards bad frames like good frames. Bad frames get dropped by the destination server or when they pass through a piece of network equipment that is not cut-through.

    Note: A CRC check is performed at the end of the frame to determine whether or not a frame has become corrupted.  Some switches can drop the frame once they detect a frame is corrupted. Cut through switches make the forwarding decision before they can perform the CRC check. Because of these frames that fail, a CRC check can still be switched by a cut-through switch. Other switches like the N7K are store and forward switches. Store and forward switches look at the entire frame before they make a forwarding decision.  A store and forward switch would drop a frame that failed a CRC check. If you experience CRC errors on an interface, it does not mean that interface is the source of the problem. To understand the architecture (cut-through vs store-forward) of the switches in the topology is imperative. Many times, you need to work your way backward to the source of the CRC error. Refer to this article for more details about cut-through and store-and-forward switches: Cloud Networking Switches                                                                     

    Reasons for Bad Frames and CRC Errors

    Some of the reasons for when you get bad frames and CRC errors can be:

    • Bad physical connection; transceiver, copper, fiber, adapter, port expander, and so on.
    • MTU Violation
    • Received bad CRC stomped from neighboring cut-through switch.

    Forwarding Mode Behavior (Cut-Through or Store-and-Forward)

    UCS Fabric Interconnects (similar to Nexus 5000) utilizes both cut-through and store-and-forward switching. Forwarding mode is dependent on the ingress and egress data rate, as shown in table 1.

    Note: Cut-through switching can be performed only when the ingress data rate is equivalent to or faster than the egress data rate.

    Table 1 — Forwarding Mode Behavior (Cut-Through or Store-and-Forward) for UCS Fabric Interconnect

    Ingress/ Source Interface

    Egress/ Destination Interface

    Forwarding mode

    10 Gigabit Ethernet

    10 Gigabit Ethernet

    Cut-through

    10 Gigabit Ethernet

    1 Gigabit Ethernet

    Cut-through

    1 Gigabit Ethernet

    1 Gigabit Ethernet

    Store-and-forward

    1 Gigabit Ethernet

    10 Gigabit Ethernet

    Store-and-forward

    10 Gigabit Ethernet

    40 Gigabit Ethernet

    Store-and-forward

    40 Gigabit Ethernet

    10 Gigabit Ethernet

    Cut-through

    40 Gigabit Ethernet

    40 Gigabit Ethernet

    Cut-through

    FCoE

    Fibre Channel

    Cut-through

    Fibre Channel

    FCoE

    Store-and-forward

    Fibre Channel

    Fibre Channel

    Store-and-forward

    FCoE

    FCoE

    Cut-through

    Main Forwarding ASICs Commands for UCS FIs, IOMs and VIC Cards

    Tables 2 and 3 show the different commands that can be run from the different management endpoints in UCS to determine where the drops are coming from and why they are occurring.

    In addition to the ASIC specific commands mentioned in table 2, these commands can be run from UCS FI NXOS shell to look for errors at the receive direction of interfaces:

    show interface counters errors

    Table 2 — Main Forwarding ASICs commands for UCS FIs and IOMs

    UCS FI / IOM

    Main FW ASIC Name

    Commands

    Purpose

    Cisco UCS Fabric Interconnects

    1Cisco UCS 6100 Series (Gen 1 FIs 61xx) End-of-Life and End-of-Sale)

    Gatos

    (nxos)# show hardware internal gatos

    This command shows Gatos ASIC internals and driver information. The third column shows how many ports/interfaces are mapped to each ASIC.

    (nxos)#show hardware internal gatos all-ports

    This command shows driver information for all ports +  front panel port to ASIC mapping.

    Cisco UCS 6200 Series (Gen 2 FIs 62xx)

    Carmel

    (nxos)# show hardware internal carmel

    This command shows the Carmel ASIC internals and driver information. 5th column shows how many ports/interfaces are mapped to each Carmel ASIC.

    (nxos)# show hardware internal carmel all-ports

    This command shows driver information for all ports and front panel physical ports to ASIC mapping.

    2(nxos)# show hardware internal carmel crc

    This command shows information if any frames were received or transmitted with CRC errors or stomped for all ports.

    (nxos)# show platform fwm info asic-errors X

    This command shows non zero Carmel drop reasons error registers (where X is the Carmel ASIC number from 0-4).

    (nxos)# show platform fwm info pif e1/X | grep asic

    Use this command and you can map your interface to the Carmel ASIC ID “global_asic_num” (where X is the interface number).

    (nxos)# show platform fwm info pif e1/X | grep drop

    This command shows the number of frames, and it filters for the drop counter for a certain interface (where X is the interface number).

    (nxos)# show hardware internal carmel all-ports detail | egrep -i «Carmel port|crc|frame_error»

    This command filters for CRC and frame error counters for all ports.

    Cisco UCS 6300 Series (Gen 3 FIs 63xx)

    Trident2 (Broadcom ASIC)

    (nxos)# show hardware internal bcm-usd info port-info

    This command shows the mapping between each physical port to a front port on the Broadcom ASIC and this mapping is different between 6332 and 6332-16UP FIs.

    (nxos)# show hard internal interface indiscard-stats front-port X

    This command shows port internal discard counters for a certain front port on the Broadcom ASIC after the mapping is done that uses the previous command.

    Cisco UCS 6400 (Gen 4 FIs 64xx)

    Homewood ASIC

    FI # connect nxos

    (nx-os)# show hardware internal interface asic counters module 1

    This command shows the reason for the forwarding drops if reported on the interface.

    FI # attach module 1
    module-1# show hardware internal tah counters asic 0

    This command shows the different counters of information tha use ASIC library.

    There is only one ASIC within this UCS Fabric interconnect model so always ASIC number 0.

    FI # attach module 1

    module-1# show hardware internal tah drop-reason counters module 0

    This command shows the drop reasons and number of dropped packets.

    Cisco UCS 64108 Gen 4 FIs

    Cisco ASIC Heavenly

    FI # connect nxos

    (nx-os)# show hardware internal interface asic counters module 1

    This command shows the reason for the forwarding drops if reported on the interface

    FI # attach module 1
    module-1# show hardware internal tah counters asic 0

    This command shows the different counters of  information that use the ASIC library.
    There is only one ASIC within this UCS Fabric interconnect model so always ASIC number 0.

    FI # attach module 1

    module-1# show hardware internal tah drop-reason counters module 0

    This command shows the reason for the forwarding drops if reported on the interface.

    Cisco UCS Mini (6324 Fabric Interconnect)

    Monticello ASIC

    (nxos)# show hardware internal mtc-usd port-status

    This command shows the status of the ports for the Monticello ASIC.

    (nxos)# show hardware internal inband-mtc ?

                 ASIC   Show Monticello ASIC information

                 info. Show Monticello inband driver info

                 stats.  Show Monticello inband driver statistics.

    • Please note KRs mapping for the blades within UCS Mini follow a different Port Mapping compared to a chassis with UCS IOMs, refer to TAC for more details.

    Cisco UCS Fabric extender I/O Modules (IOMs)

    1Cisco UCS 2100 IOM (Gen 1)

    Redwood

    FI # connect IOM <chassis ID>

    Fex-1# show platform software redwood sts

    This command shows the interface status of the HIFs and NIFs within the Redwood ASIC and which HIFs are used by each blade.

    Cisco UCS 2200 IOM (Gen 2)

    Woodside

    FI # connect IOM <chassis ID>

    fex-1# show platform software woodside sts 

    This command shows the interface status of the HIFs and NIFs within the Woodside ASIC and which HIFs are used by each blade.

    note-icon

    Note: There are two numberings for the HIFs, one is used when you troubleshoot from the IOM (after you connect to IOM) and the other is used when you troubleshoot the same HIF and run the commands from UCSM nxos.

    For example, blade 1 uses HIF numbers 28-31. You can use these numbers after you connect to IOM and run the related commands to that HIF. While these correspond to Eth1/1/1 — 4 from UCSM nxos as per show FEX detail.

    FI # connect IOM <chassis ID>

    fex-1# show platform software woodside rate

    This command shows the packet rates for active HIF or NIF ports.

    FI # connect IOM <chassis ID>

    fex-1# show platform software woodside rmon 0 [NIx/HIx]   

    For example, you can filter some error counters using grep for all NIFs as below:

    fex-1# show platform software woodside rmon 0 nif_all | egrep -i

    This command shows the received and transmitted packet sizes for a certain HIF or NIF and packet types like unicast, broadcast, or multicast.
    The Diff column is useful while you do live troubleshooting as it resets after each time you run the command to show you if packets are incrementing when you run the command again.
    You can also check if the Diff column shows new packets for these:

    RX_CRC_NOT_STOMPED
     RX_CRC_STOMPED
     TX_FRM_ERROR

    FI # connect IOM <chassis ID>

    fex-1# show platform software woodside drops 0 [NIx/HIx]

    This command shows the drop counters for a certain NIF or HIF.

    FI # connect IOM <chassis ID>

    fex-1# show platform software woodside oper

    This command shows the administrative control, MAC, and physical status, in addition to detected SFPs within the NIFs.

    FI # connect iom <chassis ID>
    fex-1# show platform software woodside sfp 0 ni0
    fex-1# show platform software woodside sfp 0 ni1
    fex-1# show platform software woodside sfp 0 ni2
    fex-1# show platform software woodside sfp 0 ni3

    This command shows the transceiver details within the woodside IOM NIF ports.

    Cisco UCS 2300 IOM (Gen 3)

    and

    Cisco UCS 2300 IOM version 2 (UCS-IOM-2304V2)

    Tiburon (Broadcom ASIC)

    # connect IOM <chassis ID>

    Fex-1# show platform software tiburon sts

    This command shows the interface status of the HIFs and NIFs within the Tibrun ASIC and which HIFs are used by each blade.
    Tibrun ASIC comes from the 2248 FEX which has 48 HIF ports, so for UCS, there are some unused ports on the ASIC (NI0-7 and HI0-9 are unused).

    note-icon

    Note: in regards to the 40G backplane ports within Gen 3 IOMs, HIF status can normally be with the 40 Gig primary ports marked as UP, and the 40 Gig member ports are marked Down.

    # connect IOM <chassis ID>

    fex-1# show platform software tiburon rate

    This command shows the packet rates for active HIF or NIF ports.

    FI # connect IOM <chassis ID>
    fex-1# show platform software tiburon rmon 0 [NIx/HIx]

    For example, you can filter some error counters using grep for all NIFs as shown:

    fex-1# show platform software tiburon rmon 0 nif_all | egrep -i ‘crc|ni|stomp|pause|err’

    This command shows the received and transmitted packet sizes for a certain HIF or NIF and packet types like unicast, broadcast, or multicast.
    The Diff column is useful while you do live troubleshooting as it resets after each time you run the command to show you if any new packets are coming when you run the command again.
    You can also check if the Diff column shows new packets for these:

     RX_CRC_NOT_STOMPED
     RX_CRC_STOMPED
     TX_FRM_ERROR

    Cisco UCS 2408 (fourth-generation I/O Module)

    «Summerville»

    UCS-IOM-2408

    Sundown

    FI # connect iom <chassis ID>
    fex-1# show hardware internal tah sts

    This command shows the interface status of the HIFs and NIFs within the Tahoe ASIC and which HIFs are used by each blade.

    fex-1# show hardware internal tah sts detail

    This command shows the NXOS to HIF port mapping, link-state, and operational speed.

     fex-1# show hardware internal tah counters asic 0 nxos-port ?
    <0-44> Nxos-port num 0-31 hif/35 bif/36-43 nif

    This command shows the detailed per-port counters

    The detailed interface counters can be viewed by referring to the NXOS port number.

    NXOS Ports 0-31 correspond to 32 HIF Ports
    NXOS ports 36-43 corresponds to the 8 NIF ports.

    1 End-of-Sale and End-of-Life Announcement for the Cisco UCS 6100 Series Fabric Interconnects and Cisco UCS 2100 Series IO Modules: Cisco UCS 6100 Series Fabric Interconnects

    2 Mode details on some columns of show hardware internal carmel crc command:

    • MM rx CRC = CRC on this link; Problem is L1 issue; Check eye height; shut, no shut; replace cable;
    • MM Rx Stomp = STOMP on the remote switch; Go check the same output on the switch across this link;
    • FI Rx Stomp = If MM Rx CRC and MM Rx Stomp are blank; L2/policy violation, most commonly MTU violation; Check QoS MTU settings.

    Table 3 — The main commands to troubleshoot connectivity, drops, and CRC errors for Cisco UCS VIC cards.

    UCS VIC Generation

    Example of the VIC card model

    Commands

    Purpose

    Cisco UCS 1200 VIC (Gen 2)

    an example is the  1225 VIC, 1240 VIC, 1280 VIC, etc

    Blades example:

    FI# connect adapter 1/1/1

    adapter 1/1/1 # connect

    adapter 1/1/1 (top):1# show-log

    adapter 1/1/1 (top):1# attach-mcp

    adapter (mcp):1# uifportstatus

    adapter (mcp):3# dcem-macstats 0       <<<< Stats for port-1

    adapter (mcp):3# dcem-macstats 1       <<<< Stats for port-2

    adapter 1/1/1 (mcp):1# vnic

    adapter 1/1/1 (mcp):1# lifstats

    For Standalone C-Series UCS:

    # scope chassis

    /chassis # show adapter  (get the PCIe slot #)

    /chassis # connect debug-shell <PCIe slot #> (this command can only work when Server is powered on)

    adapter (top):1# attach-mcp
    adapter (mcp):1# uifportstatus

    These commands can be run after connecting to the adapter of a Cisco UCS B or C series servers.

    The macstats command gives information about the status of the physical ports, packet sizes, and if there are any stomped or non-stomped frames received.

    Cisco UCS 1300 VIC (Gen 3)

    an example is the 1380 VIC

    Cisco UCS 1400 VIC (Gen 4)

    Example is:

    (VIC1440):

    PCIe based mLOM card for M5 blades (UCSB-MLOM-40G-04)

    ·        (VIC1480):

    PCIe based MEZZ card for M5 blades (UCSB-VIC-M84-4P)

    ·        (VIC1455):

    PCIe card for M5 Rack servers (UCSC-PCIE-C25Q-04)

    ·        (VIC1457):

    PCIe based mLOM card for M5 Rack servers (UCSC-MLOM-C25Q-04)

    —  Check PCIe Link status

    adapter (top):1# attach-mcp

    adapter (mcp):1# pcie_links

    pp,pps type link config link status state

    0,0   host gen3x16     gen3x16     UP

    adapter (mcp):2# exit

    —  Check Ethernet Link status

    adapter (top):2# attach-mcp

    adapter (mcp):1# uifportstatus

          ASIC        Port

      UIF Port State Speed

      0   0    UP      25g

      0   1    UP      25g

      1   0    UP      25g

      1   1    UP      25g

    adapter (mcp):2# exit

    —  Check Ethernet error counters

    adapter (top):3# attach-macd

    adapter (macd):1# macstats 0

                   DELTA                TOTAL DESCRIPTION

                     112                  112 Rx good packets

                     112                  112 Rx total received packets

                   14574                14574 Rx bytes for good packets

                   14574                14574 Rx bytes

                     104                  104 Rx multicast frames

    <snip>

    These commands can be run after connecting to the adapter of a Cisco UCS B or C series servers deployed with 4th Gen VIC adapter.

    Known Issue for Clearing Carmel ASIC Interface Counters on 2nd Gen FI

    The clear counters command can not take effect for Carmel ASIC due to this issue, and the workaround is to watch the counters if they increment:

    «Cisco bug ID CSCuy10606

    Clear Counters does not Clear «Show Hardware Internal carmel crc» on FI

    Related Information

    • Technical Support & Documentation — Cisco Systems
    • Cisco bug ID CSCvj91316 : IOM 2300 series fabric extender (IOM) can corrupt packets:

      Cisco bug ID CSCvj91316

    • Cisco bug ID CSCuy30027 : Need reload mechanism for 2348 FEX when CRC errors are seen [FEX2348 & IOM2304 share same internals & ASIC]:

      Cisco bug ID CSCuy30027

    • Cisco UCS Manager CLI User Guides: Products Installation and Configuration Guides List
    • Cisco Live- UCS 40G Fabric Interconnect 6332 Overview BRKCOM-20022: Cisco live
    • CCNA Data Center DCICT 200-155 Official Cert Guide, egress ports and cut-through switches, page 172
    • Cisco UCS Fabric Interconnect spec sheet:

    UCS B Series Blade Servers 6200 Spec Sheet

    UCS B Series Blade Servers 6332 Spec Sheet

    UCS B Series Blade Servers 6454 Spec Sheet

    Автор Сообщение

    Зарегистрирован: 05 фев 2013, 17:02
    Сообщения: 677

    Сообщение Вопрос по Cisco UCS-E140M1

    Добрый день.
    Установил такой модуль в 2911, появилось 2 новых интерфейса

    interface ucse1/0
    no ip address
    imc ip address 192.168.168.9 255.255.255.0 default-gateway 192.168.168.1
    imc access-port dedicated
    !
    interface ucse1/1
    description $Internal switch interface connected to Service Module$
    switchport trunk allowed vlan 1-169,1002-1005
    switchport mode trunk
    no ip address

    Читал мануал по настройке — все в основном говорится про интерфейс interface ucse1/0 и как через него сделать доступ к CIMC. Про interface ucse1/1 сказано лишь, что его надо перевести в switchport mode trunk и разрешить все vlan. То есть данные между роутером и этим модулем буду ходить только через interface ucse1/1??? И еще вопрос — при конфигурировании interface ucse1/0 в строке imc access-port можно выбрать dedicated и shared-lom. Shared-lom содержит пункты

    Cisco_2911(config-if)#imc access-port shared-lom ?
    GE1 GE1
    GE2 GE2
    console Console
    failover Failover
    GE2 — это порт на задней стороне модуля? все чудесно назначается, идут пинги и видится Менеджмент Консоль, а что за порт GE1? В мануале написано как сконфигурировать что бы к CIMC можно было заходить изнутри роутера и указан порт GE1. Делаю как написано — нет пингов и на CIMC зайти соответственно не могу. Получается только GE2 и dedicated, то есть через внешние интерфейсы, IP на GE1, GE2 и dedicated назначаю из VLAN который живой и на котором висит NAS, который видится из других VLAN.
    Куда смотреть?

    11 июн 2014, 07:11

    Профиль

    R_KING

    Зарегистрирован: 05 фев 2013, 17:02
    Сообщения: 677

    Сообщение Re: Вопрос по Cisco UCS-E140M1

    Еще вопрос — firmware и BIOS обновлять последовательно с повышением версии или можно на initial сразу накатить последнее обновление?

    11 июн 2014, 10:48

    Профиль

    R_KING

    Зарегистрирован: 05 фев 2013, 17:02
    Сообщения: 677

    Сообщение Re: Вопрос по Cisco UCS-E140M1

    И может кто помочь с файлами

    http://software.cisco.com/download/rele … ype=latest

    ucse-huu-2.1.1.iso

    http://software.cisco.com/download/rele … ype=latest

    update_pkg-ucse.combined.REL.2.2.2.bin

    Вчера правда еще был ISO от 15 мая 2014, но потом вдруг пропал. Может кто качал, весит около 290МБ.

    Может кто дать рекомендации — стоит обновлять BIOS и CiMC? Просто стоит все initial.

    11 июн 2014, 11:07

    Профиль

    R_KING

    Зарегистрирован: 05 фев 2013, 17:02
    Сообщения: 677

    Сообщение Re: Вопрос по Cisco UCS-E140M1

    Неужели никто с таким модулем не сталкивался?

    15 июн 2014, 23:06

    Профиль

    real1st

    Зарегистрирован: 04 окт 2011, 19:33
    Сообщения: 1316

    Сообщение Re: Вопрос по Cisco UCS-E140M1

    R_KING
    Привет!
    Вообще, UCS-E вещь довольно редкая и врятли найдется много народу, кто работал с ними.
    Вот здесь

    http://www.cisco.com/c/en/us/td/docs/un … r_010.html

    довольно подробно описано. В том числе, что за интерфейсы такие GE2, GE3 …

    По поводу обновлений: просмотрите соответствующие гайды, или вернее даже compatibility. Но не вижу ничего, что могло бы помешать накатить нужную версию сразу.

    18 июн 2014, 16:03

    Профиль

    R_KING

    Зарегистрирован: 05 фев 2013, 17:02
    Сообщения: 677

    Сообщение Re: Вопрос по Cisco UCS-E140M1

    f@ntasist0 писал(а):

    R_KING
    Привет!
    Вообще, UCS-E вещь довольно редкая и врятли найдется много народу, кто работал с ними.
    Вот здесь

    http://www.cisco.com/c/en/us/td/docs/un … r_010.html

    довольно подробно описано. В том числе, что за интерфейсы такие GE2, GE3 …

    По поводу обновлений: просмотрите соответствующие гайды, или вернее даже compatibility. Но не вижу ничего, что могло бы помешать накатить нужную версию сразу.

    Спасибо за ответ.
    Модуль обновил — спасибо форумчанину, что скачал ISO, и с интерфейсами вроде тоже разобрался, после того как поставил server 2008 R2, что касаемо ссылки на cisco.com — я выкачал тонны описаний для UCS, но там очень подробно расписано для Cisco ISR 4451-X, про UCS как то вскользь.

    Теперь вот мозг сверлит идея завернуть на этот модуль траффик после nat , поинспектировать его на модуле и через другой интерфейс выпустить обратно в роутер.

    19 июн 2014, 10:01

    Профиль

    real1st

    Зарегистрирован: 04 окт 2011, 19:33
    Сообщения: 1316

    Сообщение Re: Вопрос по Cisco UCS-E140M1

    R_KING

    Цитата:

    Теперь вот мозг сверлит идея завернуть на этот модуль траффик после nat , поинспектировать его на модуле и через другой интерфейс выпустить обратно в роутер.

    А это точно реально? Ибо inside source NAT у циски делается совсем в конце.

    А для работы с CiMC качни гайды для С-серии серверов, думаю должно быть аналогично.

    19 июн 2014, 10:30

    Профиль

    R_KING

    Зарегистрирован: 05 фев 2013, 17:02
    Сообщения: 677

    Сообщение Re: Вопрос по Cisco UCS-E140M1

    f@ntasist0 писал(а):

    R_KING

    Цитата:

    Теперь вот мозг сверлит идея завернуть на этот модуль траффик после nat , поинспектировать его на модуле и через другой интерфейс выпустить обратно в роутер.

    А это точно реально? Ибо inside source NAT у циски делается совсем в конце.

    А для работы с CiMC качни гайды для С-серии серверов, думаю должно быть аналогично.

    Не знаю. Я совсем недавно цисками занимаюсь. Просто есть модуль очень похожий на UCS, но называется SM-SRE-910, под него выпускается антивирь Касперского, смотрел аналоги этого антивиря (серверные варианты с инспекцией), там всегда настраивается по принципу — один порт для провайдера, на модуле поднимается Антивирь и NAT, со второго порта в роутер. Хотелось бы NAT на роутере оставить.

    C CIMC разобрался вроде, очень многое от обновления FW зависит. Сейчас стоит предпоследняя прошивка. Последнюю от 15 мая 2914 с сайта Cisco.com пропала. Прямо у меня на глазах — обновил страницы и пропала. Прошивка лежала меньше месяца. Может баги??

    19 июн 2014, 11:47

    Профиль

    Время на прочтение
    14 мин

    Количество просмотров 5.9K

    Eсли вкратце, то технология позволяет виртуальным машинам получать прямой доступ до физических устройств pci на сервере с гипервизором. Однако, при использовании этой технологии перестают работать почти все полезные вещи, которые позволяет кластер vSphere: fault tolerance, high availability, снапшоты, vMotion и DRS с ним же.

    Более того, когда виртуальная машина использует устройство напрямую, минуя гипервизор, то это устройство перестаёт быть доступно самому гипервизору. Например, если прокидывать сетевушку внутрь виртуалки через DirectPath I/O, то, да, ресурсы гипервизора на обработку трафика от виртуальной машины больше не используются — это хорошо. Плохо то, что прокинутую сетевушку сможет использовать только одна виртуалка. Технология, получается, весьма спорная, если не сказать больше — бесполезная. Но не всё так однозначно.

    восхитительный Cisco UCS

    Скажу откровенно, я довольно нудный тип, которого почти невозможно чем-то восхитить. Даже если это получилось, я не всегда захочу это показать, а там где захочу, то не всегда сумею. До того, как я познакомился с blade-системами Cisco, я, честно говоря, даже и не знал что фирма Cisco производит сервера. Оказалось, производит, да ещё такие, которыми я не устаю восхищаться.

    Всю жизнь я работаю с серверами, немного пореже в руки перепадали blade-системы. Когда я первый раз увидел UCS manager то стало понятно, что нахрапом его не возьмёшь. Почему? хотя бы потому, что кнопочки вкл на сервере нет. Пока не сформирован service profile (профиль) из определённого набора конфигурационных параметров, то железка бесполезна.

    В конфигурационных параметрах профиля из лезвия можно вылепить всё что угодно: параметры биос, последовательность загрузки, адреса ip-kvm, hba, версии прошивок, параметры и mac-адреса сетевушек (iscsi и обычных). Всё это сделано очень гибко, с удобной иерархией и возможностью задавать пулы массово изменяющихся параметров, таких как адреса и маки. Соответственно, пока всё это не изучено, то лезвие запустить не получится.

    сетевая часть лезвий

    О конфигурировании я здесь рассказывать не буду. По этой теме у фирмы Cisco, как и для всего остального, есть довольно внятная документация. Да и в интернете, в том числе на хабре, об этом написано некоторое количество статей. Я хотел бы остановиться на сетевой части blade-систем Cisco UCS. Сетевая часть здесь тоже особенная. Дело в том, что в серверах-лезвиях отсутствуют сетевые интерфейсы. Как же тогда лезвия работают с сетью? всё таки сетевой адаптер в каждом лезвии есть: это Virtual Interface Card (vic).

    В комплексе с IO Module (iom) в корзине эти две железки позволяют создавать реальным серверам виртуальные сетевые интерфейсы в необходимом количестве. Оно, конечно, ограничено, но ограничение довольно большое — должно хватить всем. так зачем же нам сотня сетевых интерфейсов на лезвии? незачем, если мы не используем виртуализацию. Вот тут-то настаёт время Валеры вспомнить о бесполезном DirectPath I/O, который выступает теперь уже совсем в другом свете.

    Во второй части документации от vSphere, внезапно, обнаруживается, что DirectPath I/O на Cisco UCS поставляется с блекджеком и шлюхами работает и со снапшотами, и с fault tolerance, и с high availability, и с vMotion за которым неразлучно следует DRS. «Клёво!» — подумал я, когда прочитал об этом. «Сейчас быстро сделаю, будет всем щастье» и обломался. Ни в документации Cisco, ни в документации VMWare я не нашёл чего-то, похожего на инструкцию, как все это сделать. из всего, что мне удалось найти было лишь что-то, очень удалённо напоминающее попытку сделать пошаговую инструкцию. Этот сайт уже сдох, поэтому ссылка на веб-архив.

    ещё немного воды

    Я решил написать подробный мануал в первую очередь — для себя, чтобы, столкнувшись с задачей второй раз, ничего не забыть, быстро и успешно всё повторить. Во-вторую очередь для всех остальных, хотя я прекрасно осознаю, что большинство читателей, и, возможно, я и сам в будущем, никогда не встретимся с Cisco UCS. Спасибо импортозамещению в том числе.

    Для того, чтобы успешно работать с DirectPath I/O на UCS нужно хорошо понимать как работает virtual distributed switch (vds) у vSphere. Усли понимания нет или запустить его не удалось, и вы думаете, что выполнив этот мануал удасться запустить всё, что здесь описывается — это ошибка. Запустить, может, и получится, но потом очень легко сломается вследствие неверных действий из-за непонимания.

    То же самое относится к UCS manager. Описывать работу с vds, как и большую часть конфигурирования UCS manager в рамках данной статьи я не буду. Инструкций у VMWare, Cisco, разных how-to, вопросов-ответов на форумах и прочего в интернет более чем достаточно.

    интеграция ucsm и vcsa

    Для того, чтобы ucsm мог создать vds в vCenter Server Appliance (vcsa), в который я буду загонять виртуалки, в поcледний нужно разрешить доступ через добавление ключа:

    1. открываю ucsm → вкладка vmfilter: allлкм по vmwareexport vCenter extension, указываю какую-нибудь директорию, куда упадёт файл cisco_ucs_vmware_vcenter_extn.xml. Вообще-то я не очень люблю делать скриншоты, но такой железкой приятно рисануться:
      ucs manager virtual machines
    2. теперь нужно импортировать это расширение в vcsa. VMWare утверждает, что все операции с vCenter начиная с версии 5.1 можно делать через веб-клиент. Может быть это и так, но каким образом импортировать этот файлик через веб-клиент я не нашёл ни в версии 5.1, ни в 5.5, ни в 6.0.

    поэтому открываю vmware vsphere client версии 6.0 → верхнее меню → pluginsmanage plugins → на пустом месте открывшегося окна со списком плагинов нажимаю пкмnew plug-in...browse...cisco_ucs_vmware_vcenter_extn.xmlregister plug-in.

    после успешной регистрации в списке должен появиться новый плагин Cisco-UCSM-xxx, где вместо xxx будет ключ, которому я сделал обфускацию в скриншоте выше.

    теперь vcsa готов принимать команды от ucsm.

    vds для vm-fex

    vm-fex работает через virtual distributed switch, который нужно создавать и конфигурировать в ucsm, а последний в свою очередь применяет эту конфигурацию к vcsa через интеграцию, описанную в предыдущей части. Вся работа в этой части будет происходит в ucsm во вкладке vm, поэтому я не буду в каждом пункте ссылаться на неё.

    1. пкм по vmwareconfigure vCenter → в поля name, description и hostname (or ip address) записываю данные своего vcsa: ares, gallente tackler, 10.7.16.69 → два раза next → разделы folders и datacenters пропускаю → finish;
    2. пкм на arescreate datacenter → в поля name и description записываю данные своего datacenter, который уже создан в vcsa: dcnext → раздел folders пропускаю → finish;
    3. пкм на dccreate folder → в поля name и description записываю данные папочки, в которой будет vds: ucsnext → раздел DVSs пропускаю → finish;
    4. пкм на ucs-maincreate DVS → в поля name и description записываю данные своего vds: ucs-mainOKadmin state: enable.
    5. vds готов, теперь создам port profiles. По сути это то же самое, что и distributed port group, но в терминологии cisco. У меня их всего две штуки: один профиль транковый, где разрешены все виланы, в другом нетэгированный вилан с менеджмент-сетью для виртуальных машин, гостевые системы которых по каким-то причинам не могут тегировать трафик:
      1. пкм port profiles → в поля name и description записываю данные профиля vm-mgmt-ucshost network io performance: high performance → в списке VLANs выбираю одну радиокнопку в третьей колонке напротив вилана mgmt;
      2. тоже самое делаю для транкового порта vm-trunk-ucs. Только вместо выбора радиокнопки, в первой колонке отмечаю галочками все виланы. подразумевается, что необходимые виланы в ucsm уже созданы;
      3. теперь надо сделать, чтобы эти два профиля попали в vds. Лкм по одному из них, выбираю вкладку profile clients → зелёный [+] справа → name: all, datacenter: all, folder: all, distributed virtual switch: all. Со вторым профилем то же самое. Должно получиться примерно так:
        vds ports
        через небольшое время этот ucs-main появился в vcsa. Если этого не произошло, то стоит заглянуть во вкладку fsm — скорее всего, там будет написана причина.

    лезвия для гипервизоров

    Как я уже упоминал в начале, для того, чтобы запустить лезвие, нужно навесить на него профиль. Чтобы это сделать, профиль нужно сначала создать. Создание профилей для серверов — это не цель данного документа, поэтому я подразумеваю, что всё необходимое для формирования профиля уже есть. Затрагивать я буду только то, что имеет отношение к vm-fex, без чего DirectPath I/O не заработает. На каждом лезвии я буду делать по четыре статических сетевых интерфейса. Все четыре будут привязаны к одной фабрике с failover на вторую. Половина лезвий будет работать с фабрикой а, другая половина, соответственно, с b.

    Первый интерфейс останется в обычном vSwitch. Второй интерфейс будет подключен в обычный vds. Третий интерфейс будет подключен в ucs-vds. вообще-то участие интерфейса в виде uplink в ucs-vds смахивает на атавизм, т.к. от него ничего не зависит. Но если этого не сделать, то проброс виртуальных интерфейсов не работает — я проверял :) Четвёртый интерфейс я планировал подключить в дополнительный vds в виде софтового cisco nexus 1000v, чтобы можно было более гибко конфигурировать порты виртуалок, но руки до него пока не дошли.

    Все интерфейсы я добавляю в свичи без stand by на уровне VMWare, т.к. failover реализован на уровне UCS. Замечу, что для обычных лезвий или серверов с двумя интерфейсами, не резервируемыми на уровне подключения, такая схема неверна. Не стоит её бездумно повторять на не-UCS.

    создание adapter policy

    adapter policy — это сборник настроек для каждого сетевого интерфейса в сервере. Первый adapter policy будет для четырёх статических интерфейсов гипервизора, а второй для динамических.

    1. вкладка serverspoliciesroot → пкм по adapter policiescreate ethernet adapter policyname: nn-vmw, resources:
      1. transmit queues: 4, ring size: 4096;
      2. receive queues: 4, ring size: 4096;
      3. completion queues: 8, interupts: 16;
      4. переписывать options лениво, поэтому скриншот:
        adapter options
    2. снова вкладка serverspoliciesroot → пкм по adapter policiesname: nn-vmw-pt, resources:
      1. transmit queues: 8, ring size: 4096;
      2. receive queues: 8, ring size: 4096;
      3. completion queues: 16, interupts: 32;
      4. остальное то же самое. очередей больше в два раза, потому что для работы проброса динамических интерфейсов нужно минимум по 8 очередей. Источник в подтверждение привести пока не могу. Если снова найду, то добавлю.

    создание vnic template с группировкой

    Для того, чтобы на лезвии были сетевые интерфейсы, нужно создать их шаблоны. Шаблоны можно использовать напрямую в каждом профиле, а можно сгруппировать через lan connectivity policy. Во втором случае для каждого серверного профиля или шаблона профиля достаточно будет лишь указать нужный lan connectivity policy, который сделает всё необходимое.

    Создаю два шаблона для статических интерфейсов. Один шаблон будет работать с фабрикой a с failover на b, второй наоборот.

    1. вкладка lanpoliciesroot → пкм по vNIC templatescreate vnic templatename: trunk-afabric id: a, enable failovertarget: adapter и vm (внимание! поменять эту настройку в готовом шаблоне уже не получится) → template type: updating template → отмечаю галочками все виланы → в mac pool выбираю предварительно созданный пул мак-адресов → connection policies: dynamic vnic. Второй шаблон trunk-b такой же за исключением fabric id: b.
    2. под группировкой я подразумеваю lan connectivity policy: вкладка lanpoliciesroot → пкм по lan connectivity policiescreate lan connectivity policyname: esxi4-trunk-a кнопкой [+] add далее добавляю 4 сетевых интерфейса:
      1. ставлю галочку напротив user vnic template и заполнять остаётся всего три поля: name: nic0, vnic template: выбираю созданный в предыдущем пункте trunk-a, adapter policy: nn-vmw, созданный ранее;
      2. повторяю ещё три раза для name: nic1..nic3;

    Повторяю весь раздел для name: esxi4-trunk-b с привязыванием соответственно к фабрике b.

    создание bios policy

    bios policy — это настройки bios: то что можно изменить, зайдя в bios setup. Нет смысла открывать консоль и заходить туда на каждом лезвии, если всё это можно сделать централизованно сразу для пачки лезвий.

    1. вкладка serverspoliciesroot → пкм по bios policiescreate bios policy:
      1. name: fex;
      2. не лишним будет поставить галочку напротив reboot on bios settings change;
      3. так же я обычно ставлю радиокнопку reset напротив resume on ac power loss — сервер же;
    2. в разделе processor:
      1. virtualization technology (vt): enabled;
      2. direct cache access: enabled;
    3. в разделе intel direct io все радиокнопки в состояние enabled;
    4. к работе DirectPath I/O это не относится, но ещё мне нравится включать boot option retry в разделе boot options;
    5. это обязательный минимум для работы DirectPath I/O. Остальное по необходимости, или сразу жать Finish.

    Другие настройки можно сменить уже после создания полиси.

    создание service profile

    Из него формируется то, что будет вешаться непосредственно на лезвие и в соответствии с чем железка будет сконфигурирована. Серверный профиль можно сделать напрямую, а потом клонировать. Но правильней делать его из шаблона, настройки которого будут наследоваться и меняться на всех зависимых серверных профилях. Шаблон серверного профиля включает в себя массу настроек, которые здесь не рассматриваются, подразумевая, что они уже выполнены без моей помощи. Здесь я рассмотрю только то, что нужно для работы DirectPath I/O.

    Вкладка serversservice profile templates → пкм по rootcreate service profile template. name: esxi4-a, type: updating template. Вторую настройку нельзя будет сменить на готовом шаблоне, поэтому очень важно на забыть установить её при создании.

    В разделе networking выставляю dynamic vnic connection policy в значение create a specific dynamic vnic connection policy. number of dynamic vnics. В соответствии с табличкой в мануале значение по-умолчанию у меня здесь 54: модель ucs у меня 6296, модели iom во всех корзинах 2208, значит в соответствии с последней строчкой максимальное число vif может быть 58 для mtu 9000 и 58 с mtu 1500, всего 116. Данная информация соответствует действительности лишь отчасти.

    Очевидно, что индус, который писал мануал не до конца разобрался в вопросе. Правда в том, что если полиси адаптеров содержат завышенные значения количества очередей и ring size, то 54 динамических интерфейса лезвие переварить не может. От завышенных значений я отказаться не могу — на серверах будет огромная нагрузка по трафику, гораздо больше 10 гигабит на порт (о том как это так — напишу дальше). Методом математического тыка значений в полисях адаптеров и количества vif я выяснил, что в моём случае здесь успешно выставляется число 33 и остаётся небольшой запас для дополнительных статических интерфейсов. Вдруг понадобится.

    Именно по этой причине я выбрал схему с четырьмя статическими интерфейсами. 33 динамических интерфейса это много, их действительно должно хватить всем. Но у меня в кластерах есть большое количество полуспящих виртуалок, которым мощная сеть ни к чему. Тратить на них один из 33-х динамических интерфейсов — слишком расточительно. Поэтому эти виртуалки будут жить на обычном vds, пока не начнут требовать большего. Поскольку большинство из них никогда до этого не дойдут, то жить на обычном vds они будут постоянно.

    adapter policy: nn-vmw-pt, protection: protected. Это значит, что динамические интерфейсы, которые ucsm создаст для DirectPath I/O на каждом лезвии будут равномерно разбросаны по обоим фабрикам. Не могу вспомнить, почему я решил так сделать. Возможно, просто интуиция. Возможно также, это неверно и динамические интерфейсы стоит прибивать к той же фабрике, что и статические. Время покажет. Переделать недолго, несложно и виртуалки для переделки останавливать не придётся.

    how do would you like to configure lan connectivity?: use connectivity policy. Вот тут-то я и воспользуюсь группировкой шаблонов сетевых интерфейсов, которая создавалась до этого. lan connectivity policy: esxi4-trunk-a.

    Раздел vnic/vhba placement проще показать скриншотом:
    vnic/vhba placement

    В разделе operational policies нужно выставить созданный недавно bios policy. На этом можно создание шаблона серверного профиля завершаю, finish.

    Из шаблона теперь можно создать непосредственно сам профиль. Вкладка serversservice profile templatesroot → пкм по esxi4-trunk-acreate service profiles from template. naming prefix: test, name suffix starting number: 1, number of instances: 1. это значит что из шаблона будет создан единственный профиль c именем test1.

    Теперь нужно ассоциировать профиль с лезвием. Вкладка serversservice profilesroot → пкм по test1change service profile association. Выбираю select existing server и в появившейся табличке выбираю само лезвие, который нужно ассоциировать с созданным профилем. После нажатия на кнопку ok будет вопрос-предупреждение от ucsm, что лезвие ребутнётся, делаем? отвечаю утвердительно и жду, пока ucsm подготовит лезвие к работе.

    Пока ucsm готовит лезвие, стоит обратить внимание на вкладку network серверного профиля. Выглядеть она должна примерно так:
    server profile

    после успешного выполнения весь этот раздел необходимо повторить для создания второго шаблона и профиля, который будет работать с фабрикой b вместо фабрики a.

    женитьба

    Женитьбой в автомобилестроении называют момент соединения силового агрегата с кузовом. Это название для данного раздела тоже отлично подходит.

    Процесс установки esxi я пропущу. Это очень просто и совсем неинтересно. Напишу лишь, что esxi я ставил из образа Vmware-ESXi-5.5.0-2068190-custom-Cisco-5.5.2.3.iso, который качал здесь, а потом обновлял до ESXi550-201512001.zip отсюда. В результате, по утверждениям vCenter, получилась версия 5.5.0-3248547. Как вариант, можно сразу установить Vmware-ESXi-5.5.0-3248547-Custom-Cisco-5.5.3.2.iso (ссылка) — результат должен быть тот же. Хотя установочный образ esxi специально подготовлен для серверов Cisco, он почему-то не включает в себя драйвер cisco virtual machine fabric extender (vm-fex).

    Его нужно скачивать отдельно: нужен файл cisco-vem-v161-5.5-1.2.7.1.zip из ucs-bxxx-drivers-vmware.2.2.6c.iso. Этот драйвер надо залить в гипервизор и установить: esxcli software vib install -d /tmp/cisco-vem-v161-5.5-1.2.7.1.zip. Кстати говоря, все вышеприведённые ссылки качаются свободно, нужно только зарегистрироваться. Единственное, что нельзя скачать свободно, — это vCenter. Я использую VMware-VCSA-all-6.0.0-3634788.iso (он же 6.0u2), но так же имеется успешный стенд с VMware-VCSA-all-6.0.0-2800571.iso. Установку vcsa, добавления в него гипервизоров и создании кластеров я так же пропущу.

    Стоит, наверное, аргументировать почему я выбрал vcsa версии 6 и esxi версии 5.5. веб-клиент у всех предыдущих vcsa почти полностью написан на flash. его тормоза ещё можно было бы пережить, но для доступа к консоли виртуалок требуется плагин vmware, работающий через npapi, который chrome похоронил с песнями и плясками в сентябре 2015. Учитывая недоступность некоторых функций в vmware vsphere client, запускать его совсем не хочется, оставаясь на веб-клиенте. В шестой версии vcsa с этим стало всё хорошо, можно спокойно пользоваться.

    Что касается esxi, то в версии 5.1 я наступил на весьма неприятный баг, который не давал менять конфигурацию iscsi через host profile. Без профилей, после того, как их уже распробовал, жить очень грустно. Кроме того, в vds на 5.5 появились фильтры, что весьма приятно. С их помощью можно реализовать функциональность, для которой раньше приходилось ставить cisco nexus 1000v. С esxi версии 6.0 тоже не сложилось: в ucs-bxxx-drivers-vmware.2.2.6c.iso/VM-FEX/Cisco/VIC/ESXi_6.0/README.html написано: Not supported.

    Приступим к свадьбе. В одном из прошлых разделов я создал vds, который уже должен быть в vcsa. Дело за малым: добавить один из четырёх интерфейсов лезвия в vds. И тут меня ждал жестокий облом. Один из сетевых интерфейсов гипервизора должен быть связан с с одним из аплинков vds. Вот как выглядит список аплинков здорового человека vcsa версии 5.5:
    vcsa 5.5 uplinks

    А вот список аплинков курильщика vcsa версии 6.0:
    vcsa 6.0 uplinks

    Разумеется, связать сетевой интерфейс с несуществующим аплинком невозможно, о чём красноречиво сообщает окошко с ошибкой:
    error

    Это было очень обидно. Мой вопрос на эту тему в supportforums.cisco.com проигнорировали, а на communities.vmware.com в ответ получил выступление какого-то клоуна из группы vmware employees, который совсем не разбирался в теме, но зачем-то задавал тупые вопросы. На vcsa версии 5.5 очень не хотелось по причине выпиленного npapi из chrome, поэтому пришлось копнуть глубже. Оказалось, что все аплинки у vds, созданный ucsm на месте, а вот веб-клиент их показать почему-то не может.

    Проблема решилась добавление хоста в vds через vmware vsphere client. Единственное, что немного омрачило результат — не получалось выбрать конкретный аплинк, к которому привязывался сетевой интерфейс. Но и эта проблема в итоге решилась добавлением esxi в vds через host profile. Вероятно, возможен ещё один способ добавления esxi в vds — через консольный клиент или sdk, но я этот способ не пробовал, поэтому не могу достоверно утверждать, работает ли.

    Как я уже упоминал выше, для работы DirectPath I/O достаточно добавить один сетевой интерфейс в vds, созданный ucsm. Назначить esxi адрес в этом vds необходимости нет. Более того, это вредно ввиду ограниченности количества динамических интерфейсов. Поэтому в моей конфигурации один сетевой интерфейс у esxi живёт в обычном vSwitch для того, чтобы в аварийной ситуации или при недоступности vcsa, связность до esxi можно было восстановить, а два других в обычном vds версии 5.5.

    Но вернёмся к нашим баранам запуску DirectPath I/O на виртуальной машине. Единственное, что осталось сделать — это выключить виртуальную машину, мигрировать сеть в ucs-vds, убедиться что сетевой адаптер виртуальной машины — это vmxnet3, поставить галочку reserve all guest memory в настройках памяти и запустить. Результат не заставит себя ждать. В информации о сетевой карте в строке DirectPath I/O появится значение Active. В ucsm это будет выглядеть так:
    ucs virtual machines

    bond. james bond. или нет?

    Хочу показать как выглядит виртуалка, которая отдаёт примерно 14 гигабит/с. Разумеется, происходит это с участием irqbalance и с правильно настроенным линуксом:

    top - 13:35:03 up 9 days, 17:41,  2 users,  load average: 0.00, 0.00, 0.00
    Tasks: 336 total,   1 running, 334 sleeping,   0 stopped,   1 zombie
    Cpu0  :  1.4%us,  8.5%sy,  0.0%ni, 90.2%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
    Cpu1  :  1.0%us,  7.8%sy,  0.0%ni, 91.2%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
    Cpu2  :  1.4%us,  4.4%sy,  0.0%ni, 94.2%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
    Cpu3  :  1.3%us,  8.1%sy,  0.0%ni, 90.6%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
    Cpu4  :  2.5%us,  9.3%sy,  0.0%ni, 81.4%id,  0.0%wa,  0.0%hi,  6.8%si,  0.0%st
    Cpu5  :  1.8%us,  9.5%sy,  0.0%ni, 83.6%id,  0.0%wa,  0.0%hi,  5.1%si,  0.0%st
    Cpu6  :  1.8%us,  6.6%sy,  0.0%ni, 86.3%id,  0.0%wa,  0.0%hi,  5.2%si,  0.0%st
    Cpu7  :  2.6%us,  8.8%sy,  0.0%ni, 83.9%id,  0.0%wa,  0.0%hi,  4.7%si,  0.0%st
    Cpu8  :  2.9%us,  8.3%sy,  0.0%ni, 83.3%id,  0.0%wa,  0.0%hi,  5.4%si,  0.0%st
    Cpu9  :  1.0%us,  8.0%sy,  0.0%ni, 91.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
    Cpu10 :  1.3%us,  8.9%sy,  0.0%ni, 89.4%id,  0.0%wa,  0.0%hi,  0.3%si,  0.0%st
    Cpu11 :  1.3%us,  9.3%sy,  0.0%ni, 89.4%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
    Cpu12 :  0.7%us,  3.1%sy,  0.0%ni, 96.2%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
    Cpu13 :  1.1%us,  5.3%sy,  0.0%ni, 88.0%id,  0.0%wa,  0.0%hi,  5.6%si,  0.0%st
    Cpu14 :  2.9%us,  8.7%sy,  0.0%ni, 81.9%id,  0.0%wa,  0.0%hi,  6.5%si,  0.0%st
    Cpu15 :  1.8%us,  9.0%sy,  0.0%ni, 82.4%id,  0.0%wa,  0.0%hi,  6.8%si,  0.0%st
    Mem:   8059572k total,  3767200k used,  4292372k free,   141128k buffers
    Swap:  4194300k total,        0k used,  4194300k free,   321080k cached

    Такое положение вещей как-бэ намекает, что можно позволить себе и больше. Да, действительно можно. Вопрос в том как отдавать. В фабриках ucs (они же свичи) не предусмотрена агрегация линков с серверами. Городить много интерфейсов и делать ecmp? Всё гораздо проще, делать вообще ничего не надо. Любой виртуальный интерфейс лезвия Cisco UCS имеет такое же ограничение пропускной способности на котором корзина подключена к фабрикам. А вот корзина уже подключается к фабрикам как раз через port-channel максимум восьми десятигигабитных линков в каждую фабрику. Итого, теоретический предел одного сетевого интерфейса — это 80 гигабит/с.

    полезные ссылки

    • кусок мануала о DirectPath I/O от VMWare;
    • DirectPath I/O на Cisco UCS через vm-fex;
    • cisco customer image for vmware esxi 5.5u2 install cd;
    • cisco customer image for vmware esxi 5.5u3a install cd;
    • скачивание патчей для esxi;
    • драйвер cisco vm-fex для esxi;
    • cisco vm-fex best practices;
    • неприятный и неисправленный баг в esxi 5.1;

  • Ошибка сетевого имени при обновлении касперского
  • Ошибка сетевого запроса ninebot
  • Ошибка сетевого доступа к серверу сбис
  • Ошибка сетевого доступа к серверу 1с windows sockets
  • Ошибка сетевого доступа к серверу 1с 10060 0x0000274c